劃重點(diǎn)
【資料圖】
騰訊科技訊 4月24日消息,微軟在研究論文中聲稱(chēng),新一代的人工智能算法GPT-4可能會(huì)讓人覺(jué)得它們已經(jīng)達(dá)到了早期通用人工智能(AGI)的水平,只是目前尚缺少相關(guān)判定標(biāo)準(zhǔn)。然而許多反對(duì)者表示,微軟是在炒作,GPT-4也缺少始終如一的自我意識(shí)。
去年9月份的一個(gè)晚上,微軟機(jī)器學(xué)習(xí)研究員塞巴斯蒂安·布貝克從睡眠中醒來(lái),想到了人工智能和獨(dú)角獸。最近,布貝克提前獲得了GPT-4的使用權(quán),這是人工智能研究公司OpenAI開(kāi)發(fā)出的強(qiáng)大文本生成算法,也是廣受歡迎的聊天機(jī)器人ChatGPT核心機(jī)器學(xué)習(xí)模型的升級(jí)版。
布貝克是微軟一個(gè)關(guān)鍵團(tuán)隊(duì)的成員,該團(tuán)隊(duì)致力于將新的人工智能系統(tǒng)整合到微軟的必應(yīng)搜索引擎中。然而,即使身在其間,布貝克和他的同事們?nèi)泽@嘆于GPT-4的能力,它與他們以前見(jiàn)過(guò)的任何東西都截然不同。
與此前的大型語(yǔ)言模型一樣,GPT-4也被輸入了大量的文本和代碼,并被訓(xùn)練使用語(yǔ)料庫(kù)中的統(tǒng)計(jì)模式來(lái)預(yù)測(cè)應(yīng)該在回復(fù)文本輸入時(shí)生成的單詞。但對(duì)布貝克來(lái)說(shuō),該系統(tǒng)的輸出似乎不僅僅是做出統(tǒng)計(jì)學(xué)上合理的猜測(cè)。
那天晚上,布貝克起床并走到他的電腦前,讓GPT用TikZ(一種相對(duì)晦澀的、用于生成科學(xué)圖表的編程語(yǔ)言)繪制獨(dú)角獸。布貝克使用的GPT-4版本只能處理文本,不能處理圖像。但是模型給他提供了代碼,在將代碼輸入到TikZ渲染軟件中時(shí),產(chǎn)生了一個(gè)由橢圓形、矩形和三角形拼湊而成的、盡管粗糙卻十分獨(dú)特的圖像。
對(duì)布貝克來(lái)說(shuō),這樣的成功肯定需要算法對(duì)這種生物有某種程度上的抽象把握。他說(shuō):“這里正在發(fā)生許多新的事情,也許這是我們第一次擁有可以稱(chēng)之為智能的東西。”
人工智能將變得多么智能?我們應(yīng)該在多大程度上相信一種越來(lái)越普遍的感覺(jué),即軟件是智能的?這些已經(jīng)成為一個(gè)緊迫的、幾乎令人感到恐慌的問(wèn)題。
去年11月,OpenAI發(fā)布了由GPT-3提供支持的ChatGPT,它以針對(duì)大量主題撰寫(xiě)詩(shī)歌和散文的能力、解決編碼問(wèn)題,以及從網(wǎng)絡(luò)上合成知識(shí)的能力震驚了世界。但令人感到敬畏的同時(shí),也伴隨著人們對(duì)其被用于學(xué)術(shù)欺詐、錯(cuò)誤信息傳播和造成大規(guī)模失業(yè)的擔(dān)憂(yōu)。此外,人們也對(duì)微軟等公司急于開(kāi)發(fā)可能被證明非常危險(xiǎn)的技術(shù)擔(dān)心不已。
理解AI新能力的潛力或風(fēng)險(xiǎn)意味著,我們要清楚地掌握它們具備哪些能力,以及無(wú)法做到哪些事情。然而,雖然人們普遍認(rèn)為ChatGPT和類(lèi)似的系統(tǒng)賦予了計(jì)算機(jī)重要的新技能,但研究人員才剛剛開(kāi)始研究這些行為,并確定提示背后發(fā)生了什么。
雖然OpenAI通過(guò)夸贊GPT-4在律師和醫(yī)學(xué)考試中的出色表現(xiàn)來(lái)推廣它,但研究人類(lèi)智能方面的科學(xué)家表示,它的卓越能力在關(guān)鍵方面與我們不同。這些模型不僅傾向于編造事實(shí),而且分歧巨大。每天都有數(shù)以百萬(wàn)計(jì)的人在使用這項(xiàng)技術(shù),許多公司也把未來(lái)押在了這項(xiàng)技術(shù)上,這是個(gè)亟待解決的問(wèn)題。
AIG火花
布貝克和微軟的其他人工智能研究人員受到GPT-4經(jīng)驗(yàn)的啟發(fā),參與了這場(chǎng)辯論。在將GPT-4系統(tǒng)接入必應(yīng)并推出新的聊天功能幾周后,該公司發(fā)表了一篇論文,聲稱(chēng)在早期的實(shí)驗(yàn)中,GPT-4顯示出“通用人工智能的火花”。
作者列舉了許多例子,在這些例子中,該系統(tǒng)執(zhí)行的任務(wù)似乎反映了更通用的智能,大大超過(guò)了以前的系統(tǒng),如GPT-3。這些例子表明,與大多數(shù)以前的人工智能程序不同,GPT-4并不局限于特定的任務(wù),而是可以處理各種各樣的問(wèn)題,這是通用人工智能的必備品質(zhì)。
作者還認(rèn)為,這些系統(tǒng)展示了推理、計(jì)劃、從經(jīng)驗(yàn)中學(xué)習(xí)以及將概念從一種形態(tài)轉(zhuǎn)移到另一種形態(tài)的能力,比如從文本到圖像。論文指出:“鑒于GPT-4能力的廣度和深度,我們認(rèn)為它可以被合理地視為通用人工智能(AGI)系統(tǒng)的早期版本,盡管其仍不完整。”
布貝克與包括微軟首席科學(xué)官在內(nèi)的另外14人共同撰寫(xiě)了這篇論文,但其在社交媒體上遭到了人工智能研究人員和專(zhuān)家的反對(duì)。通用人工智能是一個(gè)模糊的描述,有時(shí)用來(lái)暗指超級(jí)智能或神級(jí)機(jī)器,這個(gè)詞的使用惹惱了許多研究人員,他們認(rèn)為這是當(dāng)前炒作的證據(jù)。
在有些研究人員看來(lái),微軟向OpenAI投資超過(guò)100億美元的事實(shí)表明,該公司的人工智能專(zhuān)家有動(dòng)機(jī)大肆宣傳GPT-4的潛力,同時(shí)淡化其局限性。其他人則抱怨說(shuō),實(shí)驗(yàn)不可能復(fù)制,因?yàn)楫?dāng)提示重復(fù)出現(xiàn)時(shí),GPT-4很少以同樣的方式做出反應(yīng),而且OpenAI還沒(méi)有分享其設(shè)計(jì)細(xì)節(jié)。當(dāng)然,人們也會(huì)問(wèn),如果GPT-4真的這么聰明,為什么它還會(huì)犯可笑的錯(cuò)誤?
美國(guó)伊利諾斯大學(xué)厄巴納-香檳分校的塔利亞·林格教授說(shuō),微軟的論文“展示了一些有趣的現(xiàn)象,然后提出了一些非常夸張的觀點(diǎn)。吹捧系統(tǒng)具有高度智能,會(huì)鼓勵(lì)用戶(hù)信任它們,即使它們存在嚴(yán)重缺陷。雖然從用于衡量人類(lèi)智力的系統(tǒng)中借鑒某些想法可能很誘人,但許多想法已被證明是不可靠的,甚至根植于種族主義。”
布貝克也承認(rèn)其研究存在局限性,包括可重復(fù)性問(wèn)題,而且GPT-4也有很大的盲點(diǎn)。他說(shuō):“使用通用人工智能一詞就是為了引發(fā)爭(zhēng)論。從定義上講,智能是通用的。我們想了解這個(gè)模型的智能程度以及廣度,畢竟它涵蓋了很多很多領(lǐng)域。”
但是在布貝克論文中引用的所有例子中,有很多都表明GPT-4在某些事情上犯了明顯的錯(cuò)誤,而且通常是在微軟團(tuán)隊(duì)用來(lái)吹噓其成功的任務(wù)上。例如,例如,GPT-4能夠提出一種穩(wěn)定的方法來(lái)堆放一系列具有挑戰(zhàn)性的物品,包括一本書(shū)、四個(gè)網(wǎng)球、一個(gè)釘子、一個(gè)酒杯、一團(tuán)口香糖和未煮熟的意大利面,這似乎指向了其對(duì)世界物理屬性的把握,這被視為人類(lèi)的第二天性。然而,更改話(huà)題和要求可能會(huì)導(dǎo)致奇怪的失敗,這表明GPT-4對(duì)物理的掌握并不完整或不一致。
布貝克指出,GPT-4缺乏工作記憶,在提前計(jì)劃方面毫無(wú)建樹(shù)。他說(shuō):“GPT-4不擅長(zhǎng)這一點(diǎn),也許大型語(yǔ)言模型通常永遠(yuǎn)不會(huì)擅長(zhǎng)這方面的工作。”他指的是GPT-4等系統(tǒng)核心的大規(guī)模機(jī)器學(xué)習(xí)算法,“如果你想說(shuō)智能就是計(jì)劃,那么GPT-4就不是智能。”
毋庸置疑的是,GPT-4和其他強(qiáng)大人工智能語(yǔ)言模型的工作原理與大腦或人類(lèi)思維過(guò)程并不相似。算法必須輸入大量的訓(xùn)練數(shù)據(jù)(互聯(lián)網(wǎng)上的大量文本),這遠(yuǎn)遠(yuǎn)超過(guò)人類(lèi)學(xué)習(xí)語(yǔ)言技能所需的數(shù)據(jù)。灌輸GPT-4的“經(jīng)驗(yàn)”,以及用它構(gòu)建的東西,這些智能物品是批量產(chǎn)出的,而不是通過(guò)與世界的互動(dòng)和說(shuō)教式對(duì)話(huà)獲得的。
由于沒(méi)有工作記憶,ChatGPT只能通過(guò)在每次對(duì)話(huà)重新輸入會(huì)話(huà)歷史來(lái)維持會(huì)話(huà)的線(xiàn)程。然而,盡管存在這些差異,GPT-4顯然是一大飛躍,研究智力的科學(xué)家表示,它的能力需要進(jìn)一步的研究。
機(jī)器之心
一個(gè)由麻省理工學(xué)院、加州大學(xué)洛杉磯分校和得克薩斯大學(xué)奧斯汀分校的認(rèn)知科學(xué)家、語(yǔ)言學(xué)家、神經(jīng)科學(xué)家和計(jì)算機(jī)科學(xué)家組成的團(tuán)隊(duì)在1月份發(fā)表了一篇研究論文,探討了大型語(yǔ)言模型的能力與人類(lèi)的能力有何不同。
該團(tuán)隊(duì)得出結(jié)論稱(chēng),盡管大型語(yǔ)言模型展示了令人印象深刻的語(yǔ)言技能,包括連貫地就給定主題寫(xiě)出復(fù)雜文章的能力,但這與理解語(yǔ)言以及如何在世界上使用語(yǔ)言截然不同。這其中存在的脫節(jié)問(wèn)題可能是語(yǔ)言模型開(kāi)始模仿堆疊物體或解決謎語(yǔ)所需常識(shí)推理的原因。但是,當(dāng)涉及到理解社會(huì)關(guān)系、物理世界如何運(yùn)作以及人們?nèi)绾嗡伎紩r(shí),這些系統(tǒng)仍然會(huì)犯奇怪的錯(cuò)誤。
這些模型使用語(yǔ)言的方式,通過(guò)預(yù)測(cè)最可能出現(xiàn)在給定字符串后面的單詞,與人類(lèi)通過(guò)說(shuō)話(huà)或?qū)懽鱽?lái)傳達(dá)概念或意圖的方式也有很大不同。這種統(tǒng)計(jì)方法可能會(huì)導(dǎo)致聊天機(jī)器人跟隨并反映用戶(hù)提示的語(yǔ)言,甚至到了荒謬的地步。
例如,當(dāng)一個(gè)聊天機(jī)器人告訴某人離開(kāi)他們的配偶時(shí),它只會(huì)給出在對(duì)話(huà)線(xiàn)索下看起來(lái)最合理的答案。ChatGPT和類(lèi)似的機(jī)器人將使用第一人稱(chēng),因?yàn)樗鼈兘邮苓^(guò)人類(lèi)寫(xiě)作的訓(xùn)練。但它們沒(méi)有始終如一的自我意識(shí),可以在瞬間改變自己聲稱(chēng)的信仰或經(jīng)歷。OpenAI還使用來(lái)自人類(lèi)的反饋來(lái)引導(dǎo)模型生成人們認(rèn)為更連貫和正確的答案,這可能會(huì)促使模型提供被認(rèn)為更令人滿(mǎn)意的答案,而不管它們是否準(zhǔn)確。
麻省理工學(xué)院教授喬希·特南鮑姆是1月份那篇論文的撰稿人之一,他研究人類(lèi)認(rèn)知以及如何利用機(jī)器探索人類(lèi)認(rèn)知。他說(shuō),GPT-4很了不起,但在很多方面與人類(lèi)智能有很大不同。例如,它缺乏對(duì)人類(lèi)思維至關(guān)重要的那種動(dòng)機(jī),“它甚至不在乎是否關(guān)閉”。人類(lèi)不是簡(jiǎn)單地遵循自己的程序,而是根據(jù)自己的需要和愿望為自己創(chuàng)造新的目標(biāo)。
特南鮑姆還稱(chēng),GPT-3、GPT-4和ChatGPT之間發(fā)生許多關(guān)鍵的工程變化,使它們的能力更加強(qiáng)大。首先,該模型是在大量計(jì)算機(jī)代碼上進(jìn)行訓(xùn)練的。他和其他人認(rèn)為,人腦可能使用類(lèi)似于計(jì)算機(jī)程序的東西來(lái)處理部分認(rèn)知任務(wù),所以也許GPT-4從代碼中發(fā)現(xiàn)的模式中學(xué)到了非常有用的東西。他還指出,ChatGPT從人類(lèi)那里得到的反饋是一個(gè)關(guān)鍵因素。
但特南鮑姆表示,由此產(chǎn)生的能力并不等同于人類(lèi)智力特征中的一般智力。他說(shuō):“我對(duì)人類(lèi)個(gè)體和集體的認(rèn)知能力很感興趣,這不僅僅是一種執(zhí)行一大堆任務(wù)的能力。我們制造任務(wù),我們也能制造解決這些任務(wù)的機(jī)器。”
特南鮑姆還說(shuō),目前還不清楚未來(lái)幾代GPT能否獲得這些能力,除非采用一些不同的技術(shù),這可能意味著從機(jī)器學(xué)習(xí)之外的人工智能研究領(lǐng)域汲取靈感。重要的是,要仔細(xì)考慮我們是否要以這種方式設(shè)計(jì)系統(tǒng),因?yàn)檫@樣做可能會(huì)產(chǎn)生不可預(yù)見(jiàn)的后果。
1月份那篇論文的另一位作者、得克薩斯大學(xué)奧斯汀分校語(yǔ)言學(xué)助理教授凱爾·馬霍瓦爾德說(shuō),基于GPT-4能力的單個(gè)例子做出任何判斷都是錯(cuò)誤的。他解釋稱(chēng),認(rèn)知心理學(xué)的工具可以用來(lái)衡量這些模型的智力。但他補(bǔ)充說(shuō),GPT-4的不透明性使挑戰(zhàn)變得更復(fù)雜。重要的是訓(xùn)練數(shù)據(jù)中有什么,我們不知道。如果GPT-4在那些明確訓(xùn)練過(guò)的常識(shí)性推理任務(wù)上取得成功,而在其他沒(méi)有訓(xùn)練過(guò)的任務(wù)上失敗,很難據(jù)此得出結(jié)論。
那么,GPT-4是否可以被視為邁向通用人工智能的一小步,完全取決于你的看法。重新定義這個(gè)詞可能是最令人滿(mǎn)意的答案。斯坦福大學(xué)心理學(xué)、計(jì)算機(jī)科學(xué)和語(yǔ)言學(xué)副教授諾亞·古德曼表示:“我現(xiàn)在的觀點(diǎn)是,這就是通用人工智能,因?yàn)樗且环N通用的智能,但前提是我們對(duì)通用人工智能的含義不那么固執(zhí)。”
不幸的是,GPT-4和ChatGPT被設(shè)計(jì)為抵制這種簡(jiǎn)單的重構(gòu)。它們很聰明,但幾乎沒(méi)有提供關(guān)于如何或?yàn)槭裁吹囊?jiàn)解。更重要的是,人類(lèi)使用語(yǔ)言的方式依賴(lài)于在對(duì)話(huà)的另一邊有一個(gè)智能實(shí)體的心理模型來(lái)解釋我們所表達(dá)的詞語(yǔ)和想法。我們不禁發(fā)現(xiàn),如此輕松使用語(yǔ)言的生物身上閃爍著智慧的光芒。古德曼說(shuō):“如果預(yù)言模式是有意義的,那么人類(lèi)天生就會(huì)把它們理解為有意的,并適應(yīng)這種情況。”
人工智能不像人類(lèi),卻看起來(lái)如此聰明,這一事實(shí)仍然令人驚嘆。古德曼稱(chēng):“我們獲得了大量的原始智力,但它不一定帶有自我觀點(diǎn)、目標(biāo)或連貫的自我意識(shí)。然而對(duì)我來(lái)說(shuō),這已經(jīng)足夠迷人了。”(金鹿)