玩弄放荡人妇系列av在线网站,日韩黄片,人人妻人人添人人爽,欧美一区,日本一区二区三区在线 |观看,日本免费a级毛一片

您當(dāng)前的位置: 首頁(yè) > 新聞 > 其他

AI真的會(huì)向人類扔核彈嗎

來(lái)源:極客公園   編輯:非小米 時(shí)間:2023-11-01 14:00人閱讀

即將上映的好萊塢科幻電影《AI 創(chuàng)始者》中,一個(gè)原本為人類服務(wù)的人工智能在洛杉磯引爆了核彈。

比電影更加科幻的是,現(xiàn)實(shí)中,AI 公司們已經(jīng)開(kāi)始擔(dān)憂起這樣的場(chǎng)景真的出現(xiàn)在現(xiàn)實(shí)世界。

周中,OpenAI 表示出于對(duì) AI 系統(tǒng)安全性的考慮,公司正在成立專門團(tuán)隊(duì)?wèi)?yīng)對(duì)前沿 AI 可能面臨的“災(zāi)難性風(fēng)險(xiǎn)”,其中包括核威脅。

事實(shí)上,其 CEO Sam Altman 一直擔(dān)憂 AI 可能對(duì)人類構(gòu)成“滅絕性”威脅,此前曾在包括美國(guó)國(guó)會(huì)咨詢的多個(gè)場(chǎng)合下呼吁加強(qiáng) AI 類的監(jiān)管。

不過(guò),包括 Meta 科學(xué)家 Yann LeCun 在內(nèi)的一批科學(xué)家則對(duì) AI 監(jiān)管持不同觀點(diǎn),后者認(rèn)為當(dāng)前 AI 能力仍然有限,過(guò)早監(jiān)管不僅只會(huì)讓大公司受益,也會(huì)扼殺創(chuàng)新。

這突顯了業(yè)內(nèi)對(duì)前沿 AI 監(jiān)管仍存在分歧。監(jiān)管過(guò)早可能會(huì)制約技術(shù)發(fā)展,但缺乏監(jiān)管又將難以應(yīng)對(duì)風(fēng)險(xiǎn)。如何在技術(shù)先行和防范監(jiān)管間取得平衡,使AI既高效發(fā)展又安全可控,仍然屬于業(yè)界難題。

AI,前沿還是危險(xiǎn)

本周四,OpenAI 在一份更新中表示,出于對(duì) AI 系統(tǒng)安全性的考慮,公司正在組建新團(tuán)隊(duì)“準(zhǔn)備就緒 (Preparedness)”來(lái)跟蹤、評(píng)估、預(yù)測(cè)“前沿模型”的發(fā)展,以防止所謂的“災(zāi)難性風(fēng)險(xiǎn)”,包括網(wǎng)絡(luò)安全問(wèn)題以及化學(xué)、核和生物威脅。

該團(tuán)隊(duì)將由 Aleksander Madry 領(lǐng)導(dǎo),他任 MIT 可部署機(jī)器學(xué)習(xí)中心主任一職,目前處于休假期間。

此外,該團(tuán)隊(duì)的任務(wù)還包括制定和維護(hù)“風(fēng)險(xiǎn)知情開(kāi)發(fā)政策”,該政策將詳細(xì)闡釋 OpenAI 構(gòu)建AI模型評(píng)估和監(jiān)控工具的方法、公司的風(fēng)險(xiǎn)緩解行動(dòng)以及監(jiān)督整個(gè)模型開(kāi)發(fā)流程的治理結(jié)構(gòu)。

該政策旨在補(bǔ)充 OpenAI 在 AI 安全領(lǐng)域的工作,并保持部署前后的安全性與一致性。

OpenAI 提出,管理前沿AI模型的可能的災(zāi)難性風(fēng)險(xiǎn)需要回答以下幾個(gè)關(guān)鍵問(wèn)題:

- 前沿 AI 模型被誤用的危險(xiǎn)性大???

- 如何建立健全的監(jiān)測(cè)、評(píng)估、預(yù)測(cè)和防范前沿 AI 模型危險(xiǎn)能力的框架?

- 如果前沿 AI 模型被盜用,惡意行為者可能會(huì)如何利用它們?

OpenAI 在更新中寫道:“我們相信…將超越目前最先進(jìn)模型的前沿 AI 模型,有可能造福全人類…但它們也會(huì)帶來(lái)越來(lái)越嚴(yán)重的風(fēng)險(xiǎn)。”

最近一段時(shí)間,OpenAI 不斷強(qiáng)調(diào) AI 的安全問(wèn)題,并開(kāi)展了一系列公司層面、輿論層面、甚至政治層面的行動(dòng)。

此前在7月7日,OpenAI 宣布成立一個(gè)新團(tuán)隊(duì),旨在探索引導(dǎo)和控制“超級(jí)AI”的方法,團(tuán)隊(duì)由 OpenAI 聯(lián)合創(chuàng)始人兼首席科學(xué)家 Ilya Sutskever 和 Alignment 負(fù)責(zé)人 Jan Leike 共同領(lǐng)導(dǎo)。

Sutskever 和 Leike 曾預(yù)測(cè),超過(guò)人類智慧的人工智能將在10年內(nèi)出現(xiàn),他們稱,這種人工智能不一定是善良的,因此有必要研究控制和限制它的方法。

根據(jù)當(dāng)時(shí)的報(bào)道,該團(tuán)隊(duì)被授予最高優(yōu)先級(jí),并獲得公司20%的計(jì)算資源支持,他們的目標(biāo)是在未來(lái)四年內(nèi)解決控制超“超級(jí)AI”的核心技術(shù)挑戰(zhàn)。

為了配合此次“準(zhǔn)備就緒 ”團(tuán)隊(duì)的啟動(dòng),Open AI 還舉辦了一項(xiàng)挑戰(zhàn)賽,讓外部人士就AI可能被如何濫用并在現(xiàn)實(shí)世界造成危害的方式提出想法,前10名的提交者將獲得 2.5 萬(wàn)美元的獎(jiǎng)金和一份“準(zhǔn)備就緒 ”的工作。

關(guān)于“AI可能導(dǎo)致人類滅絕”的擔(dān)心

OpenAI 的 CEO Sam Altman 一直擔(dān)心 AI 可能導(dǎo)致人類滅絕。

在5月的一場(chǎng) AI 主題的美國(guó)國(guó)會(huì)聽(tīng)證會(huì)上,Altman 就表示,需要對(duì)AI進(jìn)行監(jiān)管,如果沒(méi)有針對(duì)超級(jí)AI的嚴(yán)格監(jiān)管標(biāo)準(zhǔn),未來(lái)20年內(nèi)將會(huì)出現(xiàn)更多危險(xiǎn)。

5月底,Altman 又和谷歌 DeepMind、Anthropic 的 CEO 以及幾位知名 AI 研究人員簽署了一份簡(jiǎn)短聲明,聲稱“與流行病和核戰(zhàn)爭(zhēng)一樣,減輕AI導(dǎo)致滅絕的風(fēng)險(xiǎn)應(yīng)該成為全球優(yōu)先事項(xiàng)之一”。

6月的舊金山科技峰會(huì)上,Sam Altman 提到在 AI 技術(shù)發(fā)展上“你不應(yīng)該信任一家公司,當(dāng)然也不應(yīng)該信任一個(gè)人”,他認(rèn)為這項(xiàng)技術(shù)本身以及它的好處、它的獲取、它的治理,都是屬于全人類的。

不過(guò)也有人(以馬斯克為代表)指責(zé) Altman“呼吁監(jiān)管”只是為了保護(hù) OpenAI 領(lǐng)導(dǎo)地位。

Sam Altman 當(dāng)時(shí)回應(yīng)稱,“我們認(rèn)為,應(yīng)該對(duì)那些超過(guò)某一高度能力閾值的大型公司和專有模型進(jìn)行更多監(jiān)管,而對(duì)小型初創(chuàng)公司和開(kāi)源模型的監(jiān)管應(yīng)該較少。我們已經(jīng)看到試圖對(duì)科技進(jìn)行過(guò)度監(jiān)管的國(guó)家所面臨的問(wèn)題,這不是我們所期望的。”

他還表示,“人們訓(xùn)練的模型遠(yuǎn)遠(yuǎn)超出了我們今天擁有的任何模型規(guī)模,但如果超出了某些能力閾值,我認(rèn)為應(yīng)該需要有一個(gè)認(rèn)證過(guò)程,同時(shí)還應(yīng)該進(jìn)行外部審核和安全測(cè)試。而且,這樣的模型需要向政府報(bào)告,應(yīng)該接受政府的監(jiān)督。”

與 Altman 觀點(diǎn)相反的是,就在10月19日,Meta 科學(xué)家 Yann LeCun(楊立昆)在接受英媒《金融時(shí)報(bào)》采訪時(shí)表達(dá)了自己反對(duì)過(guò)早監(jiān)管AI的立場(chǎng)。

Yann LeCun 是美國(guó)國(guó)家科學(xué)院、美國(guó)國(guó)家工程院和法國(guó)科學(xué)院院士,也因發(fā)明卷積網(wǎng)絡(luò),以及使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)的光學(xué)字符識(shí)別和計(jì)算機(jī)視覺(jué)方面的工作而聞名。

2018年,Yann LeCun 與 Yoshua Bengio 和 Geoffrey Hinton 一起獲得了圖靈獎(jiǎng)(通常被稱為“計(jì)算界的諾貝爾獎(jiǎng)”),上述三位通常被稱為“人工智能教父”和“深度學(xué)習(xí)教父”。

在訪談中,Yann LeCun 對(duì) AI 監(jiān)管整體呈現(xiàn)出較為消極的態(tài)度,他認(rèn)為,現(xiàn)在監(jiān)管 AI 模型就像在1925年監(jiān)管噴氣式航空飛機(jī)一樣(當(dāng)時(shí)這種飛機(jī)還沒(méi)有被發(fā)明出來(lái)),過(guò)早監(jiān)管AI只會(huì)加強(qiáng)大型科技公司的主導(dǎo)地位,扼殺競(jìng)爭(zhēng)。

“監(jiān)管AI的研發(fā)會(huì)產(chǎn)生令人難以置信的反效果,”Yann LeCun 表示,監(jiān)管AI的要求源于一些領(lǐng)先科技公司的“傲慢”或者“優(yōu)越感”,這些公司認(rèn)為只有他們才能獲得信任,安全地開(kāi)發(fā)AI,“他們希望打著AI安全的幌子進(jìn)行監(jiān)管。”

“但事實(shí)上,在我們能夠設(shè)計(jì)出一個(gè)系統(tǒng),讓它在學(xué)習(xí)能力方面能夠與貓相匹敵之前,關(guān)于AI可能會(huì)帶來(lái)風(fēng)險(xiǎn)的辯論都為時(shí)過(guò)早”,Yann LeCun 表示,當(dāng)前一代 AI 模型的能力還遠(yuǎn)未達(dá)到一些研究人員所宣稱的那樣強(qiáng)大,“它們根本不了解世界的運(yùn)作方式,它們既沒(méi)有計(jì)劃能力,也沒(méi)辦法進(jìn)行真正的推理。”

在他看來(lái),OpenAI 和谷歌 DeepMind 一直“過(guò)分樂(lè)觀”地看待這個(gè)問(wèn)題的復(fù)雜性,事實(shí)上,距離AI達(dá)到人類智能水平還需要幾個(gè)“概念性的突破”。但即便到那時(shí),也可以通過(guò)在系統(tǒng)中編碼“道德品質(zhì)”來(lái)控制 AI,就像現(xiàn)在可以用制定法律來(lái)規(guī)范人類行為一樣。

AI真的會(huì)向人類扔核彈嗎

本站所有文章、數(shù)據(jù)、圖片均來(lái)自互聯(lián)網(wǎng),一切版權(quán)均歸源網(wǎng)站或源作者所有。

如果侵犯了你的權(quán)益請(qǐng)來(lái)信告知我們刪除。郵箱:business@qudong.com

相關(guān)文章