玩弄放荡人妇系列av在线网站,日韩黄片,人人妻人人添人人爽,欧美一区,日本一区二区三区在线 |观看,日本免费a级毛一片

您當(dāng)前的位置: 首頁 > 新聞

人工智能是否會危及人類未來?

來源: 編輯:vbeiyou 時(shí)間:2015-01-12 05:44人閱讀
近日,英國理論物理學(xué)家霍金語出驚人,預(yù)言人工智能科技如果不加控制地發(fā)展,將超越人類智能,并控制或滅絕人類。無獨(dú)有偶,牛津大學(xué)哲學(xué)教授、人類未來研究所創(chuàng)建者博斯特羅姆近日也指出,超級人工智能是人類未來最大的存在風(fēng)險(xiǎn),其風(fēng)險(xiǎn)性高于自然災(zāi)害、環(huán)境惡化、流行疾病。 兩位英國學(xué)者的觀點(diǎn)是否合理?人工智能會不會發(fā)展到人類無法駕馭的超級智能階段?記者采訪了研究人工智能哲學(xué)的復(fù)旦大學(xué)哲學(xué)學(xué)院教授徐英瑾。 圖靈為人工智能設(shè)立標(biāo)準(zhǔn) 徐英瑾介紹,人工智能學(xué)科緣起于一篇經(jīng)典論文和一次重要會議。 1950年,英國數(shù)學(xué)家、邏輯學(xué)家、計(jì)算機(jī)科學(xué)理論奠基人圖靈在《心智》雜志發(fā)表論文《計(jì)算機(jī)器和智能》,提出了著名的“圖靈測試”——如果一臺機(jī)器能夠與人展開對話(通過電傳設(shè)備),并且會被人誤以為它也是人,那么這臺機(jī)器就具有智能。 顯然,這是一個(gè)帶有行為主義色彩的“人工智能”定義,因?yàn)樵摱x沒有從機(jī)器內(nèi)部機(jī)制著手,而是通過其外在行為來判斷它是否具有智能。其好處是,繞開了“智能的本質(zhì)”這個(gè)眾說紛紜的問題,給人工智能發(fā)展設(shè)定了一個(gè)目標(biāo):開發(fā)出能通過圖靈測試的機(jī)器。 1956年,一群學(xué)者在美國達(dá)特茅斯學(xué)院參加會議,探討如何利用問世不久的計(jì)算機(jī)實(shí)現(xiàn)人類智能。會議籌備期間,后來獲得計(jì)算機(jī)科學(xué)最高獎(jiǎng)——圖靈獎(jiǎng)的麥卡錫提議用“Artificial Intelligence”(人工智能)一詞來稱呼這門新興學(xué)科,得到了與會者認(rèn)同。在這次會議上,學(xué)者們討論了如何在人類智能水平上實(shí)現(xiàn)機(jī)器智能,而不是用特定算法解決一些具體問題。舉個(gè)例子,IBM公司研制的“深藍(lán)”計(jì)算機(jī)能夠在與國際象棋世界冠軍卡斯帕羅夫的對弈中勝出,但并不能由此認(rèn)為“深藍(lán)”擁有了超級人工智能。這是因?yàn)?,它只是在某個(gè)方面的能力上超過人類,而且無法通過圖靈測試。 如果霍金擔(dān)心的超級計(jì)算機(jī)有朝一日問世,那它必定在綜合思維能力上超出人類,這樣才可能擁有“僭越”的想法,以及控制或消滅人類的能力。 霍金警示的風(fēng)險(xiǎn)理論上存在 值得“慶幸”的是,目前,人工智能的全球領(lǐng)先水平與超級人工智能相去甚遠(yuǎn)。學(xué)術(shù)界普遍認(rèn)為,世界上還沒有機(jī)器能通過圖靈測試。 對于這一現(xiàn)狀,有三種回應(yīng)觀點(diǎn)—— 第一種觀點(diǎn)是:圖靈、司馬賀等人工智能學(xué)科元老提出的全面模擬人類智能的想法,太好高騖遠(yuǎn)。這種玄想或許在未來會成真,但目前為實(shí)現(xiàn)這個(gè)想法做研究,純屬浪費(fèi)精力。業(yè)界目前應(yīng)做一些踏實(shí)的人工智能研究,滿足于制造解決特殊問題的求解器。徐英瑾發(fā)現(xiàn),許多人工智能業(yè)內(nèi)人士持這一觀點(diǎn)。由此可見,霍金的警告有點(diǎn)杞人憂天的味道。 第二種觀點(diǎn)是:全面實(shí)現(xiàn)人類智能的機(jī)器是不可能造出來的,就像造不出永動(dòng)機(jī)一樣。學(xué)者們提出過多種論證,試圖從哲學(xué)、邏輯層面論證這種不可能性,其中非常著名的有美國哲學(xué)家塞爾提出的“漢字屋論證”(也稱“中文房間思想實(shí)驗(yàn)”)以及英國理論物理學(xué)家、數(shù)學(xué)家彭羅斯提出的“從哥德爾不完備性定理出發(fā)的論證”,但這些論證都遭到了學(xué)術(shù)界反駁。徐英瑾認(rèn)為,“漢字屋論證”和彭羅斯的論證都是站不住腳的,超級人工智能并沒有在理論上“被判出局”。 第三種觀點(diǎn)與第一種有相近之處,認(rèn)為全面實(shí)現(xiàn)人類智能的機(jī)器是能夠造出來的,但難度很大。如果當(dāng)下的人工智能研究路子不改變,那么點(diǎn)滴成果的積累也未必能質(zhì)變?yōu)槿嫱黄??!拔页诌@種觀點(diǎn)?!毙煊㈣f,“所以我認(rèn)為霍金、博斯特羅姆警示的風(fēng)險(xiǎn)從理論上來說是存在的,但在未來相當(dāng)長時(shí)間內(nèi)不會成為現(xiàn)實(shí)。” 大數(shù)據(jù)技術(shù)有先天缺陷 在這位復(fù)旦學(xué)者看來,如今十分熱門的大數(shù)據(jù)技術(shù),一旦過度應(yīng)用于人工智能領(lǐng)域,就是一條錯(cuò)誤的路子。 大數(shù)據(jù)技術(shù)催生了數(shù)據(jù)科學(xué)。與傳統(tǒng)的科學(xué)研究范式不同,數(shù)據(jù)科學(xué)不再追求因果關(guān)系,而是按照“樣本=總體”的思路對海量數(shù)據(jù)進(jìn)行深入挖掘和統(tǒng)計(jì)分析,尋求各個(gè)事物間的相關(guān)性。很多時(shí)候,大數(shù)據(jù)統(tǒng)計(jì)出的是“2+2=3.9”這類近似結(jié)果,精確度上的略微損失,換來了對事物間相關(guān)關(guān)系的準(zhǔn)確預(yù)測。 徐英瑾認(rèn)為,大數(shù)據(jù)分析是西方經(jīng)驗(yàn)論哲學(xué)在當(dāng)代的一種表現(xiàn)形式。近代西方哲學(xué)分為兩大流派:經(jīng)驗(yàn)論和唯理論。經(jīng)驗(yàn)論認(rèn)為,人的感性經(jīng)驗(yàn)是一切知識和觀念的唯一來源;唯理論與之針鋒相對,認(rèn)為具有普遍必然性的知識并非來自經(jīng)驗(yàn),而是來自人與生俱來的理性。大數(shù)據(jù)研究范式推崇海量數(shù)據(jù)的采集,那些用于數(shù)據(jù)采集的攝像頭、傳感器等設(shè)備好比人類感官的延伸;還推崇大樣本的統(tǒng)計(jì)學(xué)分析,用它取代因果分析。這種看重經(jīng)驗(yàn)采集、貶低理性推理的模式背后,正是經(jīng)驗(yàn)論哲學(xué)觀。 就像經(jīng)驗(yàn)論有其局限性一樣,大數(shù)據(jù)分析也有局限。以基于大數(shù)據(jù)技術(shù)的“谷歌翻譯”為例,這種人工智能系統(tǒng)的研發(fā)團(tuán)隊(duì)沒有通過編程定義語法規(guī)則,因?yàn)橥晟频恼Z法編程目前還無法實(shí)現(xiàn)。他們采用的主要技術(shù)方案,是利用大數(shù)據(jù)統(tǒng)計(jì)不斷調(diào)整翻譯結(jié)果的相關(guān)性,優(yōu)化翻譯結(jié)果。這樣做的好處是,翻譯系統(tǒng)會隨著數(shù)據(jù)的積累而不斷改善。但目前,使用“谷歌翻譯”的結(jié)果只能幫助人們大致理解陌生語言,有時(shí)候得到的翻譯結(jié)果很不通順?!按髷?shù)據(jù)翻譯系統(tǒng)缺少深層語法結(jié)構(gòu),這種結(jié)構(gòu)好比唯理論看重的先天理性,缺少了它,人工智能系統(tǒng)就無法譯出完善的自然語言?!毙煊㈣f。 而讓機(jī)器“說”出人們在日常生活中說的自然語言,正是圖靈測試所要求的。在人工智能領(lǐng)域,“自然語言處理”占有重要地位,已發(fā)展成一個(gè)相對獨(dú)立的研究領(lǐng)域。蘋果手機(jī)的Siri、上海企業(yè)開發(fā)的小i機(jī)器人,都是應(yīng)用自然語言處理技術(shù)的人工智能產(chǎn)品。有興趣的讀者可以對 Siri 和小 i 機(jī)器人進(jìn)行圖靈測試,看看它們的回答是否像人。 讓機(jī)器人服從“絕對命令” 在好萊塢電影《梯陣陰謀》中,美國國安局設(shè)置的超級計(jì)算機(jī)Echelon(梯陣),能通過調(diào)取、分析每個(gè)公民的各類信息,進(jìn)行行為監(jiān)控,還可以向人們的手機(jī)發(fā)送短信,達(dá)到不可告人的目的。 這種超級人工智能如果在未來成為現(xiàn)實(shí),人類社會將毫無隱私可言。影片結(jié)尾,找到Echelon的男主角向它提問:你的宗旨是什么?Echelon的回答是“保護(hù)美國公民的自由權(quán)益”。經(jīng)過一番人機(jī)對話,這臺計(jì)算機(jī)“幡然悔悟”,將自身的監(jiān)視程序刪除了。 博斯特羅姆認(rèn)為,科幻電影和小說中常見的自毀程序橋段,并不是解除超級人工智能威脅的最佳方案。他指出,“我們并不是要永遠(yuǎn)抑制超級智能,或不開發(fā)行動(dòng)自由的超級智能?!庇?jì)算機(jī)程序的“動(dòng)機(jī)選擇問題”必須得到解決。一種解決方案是將機(jī)器的目標(biāo)模糊化。例如,如果想要它幫助醫(yī)生治療某種疾病,可以將目標(biāo)設(shè)為“做有利于人類健康的事”。另一種解決方案是使人工智能更人性化,為其編入同情和利他主義程序。 這兩種方案,都與科幻小說家阿西莫夫提出的“機(jī)器人三定律”相通。三條定律分別是:第一法則:機(jī)器人不得傷害人類,或坐視人類受到傷害;第二法則:除非違背第一法則,機(jī)器人必須服從人類的命令;第三法則:在不違背第一和第二法則的情況下,機(jī)器人必須保護(hù)自己?!斑@堪稱機(jī)器人版的‘絕對命令’學(xué)說。哲學(xué)家康德提出的‘絕對命令’要求,人應(yīng)該在任何情況下把自己和他人當(dāng)作目的,而非手段。”徐英瑾評論道,“未來出現(xiàn)超級人工智能后,應(yīng)將這種機(jī)器人倫理以立法形式確立下來,防止瘋狂的科學(xué)家開發(fā)出旨在控制甚至毀滅人類的機(jī)器?!? 漢字屋論證 一個(gè)母語是英語、對漢語一竅不通的人,呆在一間只有一個(gè)開口的封閉房間里。屋內(nèi)有一本用英文寫的說明漢語語法和漢字組合規(guī)則的手冊,以及一大堆漢字符號。屋外的人不斷向屋內(nèi)遞進(jìn)用漢字寫成的問題。屋子里的人便按照手冊上的說明,將漢字符號組合成對問題的解答,并將答案遞出房間。 在這個(gè)思想實(shí)驗(yàn)中,屋內(nèi)人相當(dāng)于計(jì)算機(jī),手冊相當(dāng)于計(jì)算機(jī)程序。塞爾想以此證明,正如屋內(nèi)人不可能通過手冊理解漢語一樣,計(jì)算機(jī)不可能通過程序獲得理解力,即馮·諾依曼型計(jì)算機(jī)不可能具備強(qiáng)人工智能。

本站所有文章、數(shù)據(jù)、圖片均來自互聯(lián)網(wǎng),一切版權(quán)均歸源網(wǎng)站或源作者所有。

如果侵犯了你的權(quán)益請來信告知我們刪除。郵箱:business@qudong.com

標(biāo)簽: 人工智能

相關(guān)文章