當前位置:首頁 > 今日熱點 > 熱點追蹤 > 正文

    微軟稱GPT-4已經是早期通用人工智能?反對者:缺少自我意識_速看

    2023-04-24 08:41:08    來源:騰訊科技    

    劃重點


    【資料圖】

    1在將GPT-4系統接入微軟必應并推出新的聊天功能幾周后,微軟研究團隊發表論文,聲稱在早期的實驗中,他們發現GPT-4已顯示出“通用人工智能的火花”。 2微軟研究人員在論文中列舉的許多例子表明,與大多數以前的人工智能程序不同,GPT-4并不局限于執行特定的任務,而是可以處理各種各樣的問題,這是通用人工智能的必備品質。 3微軟的研究在社交媒體上遭到了其他人工智能研究人員和專家的反對。他們認為微軟使用通用人工智能這個詞就是為了炒作,而微軟向OpenAI投資100多億美元讓其有這么做的動機。 4目前還不清楚未來幾代GPT能否獲得通用人工智能的能力,除非采用不同的開發技術,這可能意味著從機器學習之外的人工智能研究領域汲取靈感。重要的是,要仔細考慮是否要以這種方式設計人工智能系統,因為這可能會產生不可預見的后果。

    騰訊科技訊 4月24日消息,微軟在研究論文中聲稱,新一代的人工智能算法GPT-4可能會讓人覺得它們已經達到了早期通用人工智能(AGI)的水平,只是目前尚缺少相關判定標準。然而許多反對者表示,微軟是在炒作,GPT-4也缺少始終如一的自我意識。

    去年9月份的一個晚上,微軟機器學習研究員塞巴斯蒂安·布貝克從睡眠中醒來,想到了人工智能和獨角獸。最近,布貝克提前獲得了GPT-4的使用權,這是人工智能研究公司OpenAI開發出的強大文本生成算法,也是廣受歡迎的聊天機器人ChatGPT核心機器學習模型的升級版。

    布貝克是微軟一個關鍵團隊的成員,該團隊致力于將新的人工智能系統整合到微軟的必應搜索引擎中。然而,即使身在其間,布貝克和他的同事們仍驚嘆于GPT-4的能力,它與他們以前見過的任何東西都截然不同。

    與此前的大型語言模型一樣,GPT-4也被輸入了大量的文本和代碼,并被訓練使用語料庫中的統計模式來預測應該在回復文本輸入時生成的單詞。但對布貝克來說,該系統的輸出似乎不僅僅是做出統計學上合理的猜測。

    那天晚上,布貝克起床并走到他的電腦前,讓GPT用TikZ(一種相對晦澀的、用于生成科學圖表的編程語言)繪制獨角獸。布貝克使用的GPT-4版本只能處理文本,不能處理圖像。但是模型給他提供了代碼,在將代碼輸入到TikZ渲染軟件中時,產生了一個由橢圓形、矩形和三角形拼湊而成的、盡管粗糙卻十分獨特的圖像。

    對布貝克來說,這樣的成功肯定需要算法對這種生物有某種程度上的抽象把握。他說:“這里正在發生許多新的事情,也許這是我們第一次擁有可以稱之為智能的東西。”

    人工智能將變得多么智能?我們應該在多大程度上相信一種越來越普遍的感覺,即軟件是智能的?這些已經成為一個緊迫的、幾乎令人感到恐慌的問題。

    去年11月,OpenAI發布了由GPT-3提供支持的ChatGPT,它以針對大量主題撰寫詩歌和散文的能力、解決編碼問題,以及從網絡上合成知識的能力震驚了世界。但令人感到敬畏的同時,也伴隨著人們對其被用于學術欺詐、錯誤信息傳播和造成大規模失業的擔憂。此外,人們也對微軟等公司急于開發可能被證明非常危險的技術擔心不已。

    理解AI新能力的潛力或風險意味著,我們要清楚地掌握它們具備哪些能力,以及無法做到哪些事情。然而,雖然人們普遍認為ChatGPT和類似的系統賦予了計算機重要的新技能,但研究人員才剛剛開始研究這些行為,并確定提示背后發生了什么。

    雖然OpenAI通過夸贊GPT-4在律師和醫學考試中的出色表現來推廣它,但研究人類智能方面的科學家表示,它的卓越能力在關鍵方面與我們不同。這些模型不僅傾向于編造事實,而且分歧巨大。每天都有數以百萬計的人在使用這項技術,許多公司也把未來押在了這項技術上,這是個亟待解決的問題。

    AIG火花

    布貝克和微軟的其他人工智能研究人員受到GPT-4經驗的啟發,參與了這場辯論。在將GPT-4系統接入必應并推出新的聊天功能幾周后,該公司發表了一篇論文,聲稱在早期的實驗中,GPT-4顯示出“通用人工智能的火花”。

    作者列舉了許多例子,在這些例子中,該系統執行的任務似乎反映了更通用的智能,大大超過了以前的系統,如GPT-3。這些例子表明,與大多數以前的人工智能程序不同,GPT-4并不局限于特定的任務,而是可以處理各種各樣的問題,這是通用人工智能的必備品質。

    作者還認為,這些系統展示了推理、計劃、從經驗中學習以及將概念從一種形態轉移到另一種形態的能力,比如從文本到圖像。論文指出:“鑒于GPT-4能力的廣度和深度,我們認為它可以被合理地視為通用人工智能(AGI)系統的早期版本,盡管其仍不完整。”

    布貝克與包括微軟首席科學官在內的另外14人共同撰寫了這篇論文,但其在社交媒體上遭到了人工智能研究人員和專家的反對。通用人工智能是一個模糊的描述,有時用來暗指超級智能或神級機器,這個詞的使用惹惱了許多研究人員,他們認為這是當前炒作的證據。

    在有些研究人員看來,微軟向OpenAI投資超過100億美元的事實表明,該公司的人工智能專家有動機大肆宣傳GPT-4的潛力,同時淡化其局限性。其他人則抱怨說,實驗不可能復制,因為當提示重復出現時,GPT-4很少以同樣的方式做出反應,而且OpenAI還沒有分享其設計細節。當然,人們也會問,如果GPT-4真的這么聰明,為什么它還會犯可笑的錯誤?

    美國伊利諾斯大學厄巴納-香檳分校的塔利亞·林格教授說,微軟的論文“展示了一些有趣的現象,然后提出了一些非常夸張的觀點。吹捧系統具有高度智能,會鼓勵用戶信任它們,即使它們存在嚴重缺陷。雖然從用于衡量人類智力的系統中借鑒某些想法可能很誘人,但許多想法已被證明是不可靠的,甚至根植于種族主義。”

    布貝克也承認其研究存在局限性,包括可重復性問題,而且GPT-4也有很大的盲點。他說:“使用通用人工智能一詞就是為了引發爭論。從定義上講,智能是通用的。我們想了解這個模型的智能程度以及廣度,畢竟它涵蓋了很多很多領域。”

    但是在布貝克論文中引用的所有例子中,有很多都表明GPT-4在某些事情上犯了明顯的錯誤,而且通常是在微軟團隊用來吹噓其成功的任務上。例如,例如,GPT-4能夠提出一種穩定的方法來堆放一系列具有挑戰性的物品,包括一本書、四個網球、一個釘子、一個酒杯、一團口香糖和未煮熟的意大利面,這似乎指向了其對世界物理屬性的把握,這被視為人類的第二天性。然而,更改話題和要求可能會導致奇怪的失敗,這表明GPT-4對物理的掌握并不完整或不一致。

    布貝克指出,GPT-4缺乏工作記憶,在提前計劃方面毫無建樹。他說:“GPT-4不擅長這一點,也許大型語言模型通常永遠不會擅長這方面的工作。”他指的是GPT-4等系統核心的大規模機器學習算法,“如果你想說智能就是計劃,那么GPT-4就不是智能。”

    毋庸置疑的是,GPT-4和其他強大人工智能語言模型的工作原理與大腦或人類思維過程并不相似。算法必須輸入大量的訓練數據(互聯網上的大量文本),這遠遠超過人類學習語言技能所需的數據。灌輸GPT-4的“經驗”,以及用它構建的東西,這些智能物品是批量產出的,而不是通過與世界的互動和說教式對話獲得的。

    由于沒有工作記憶,ChatGPT只能通過在每次對話重新輸入會話歷史來維持會話的線程。然而,盡管存在這些差異,GPT-4顯然是一大飛躍,研究智力的科學家表示,它的能力需要進一步的研究。

    機器之心

    一個由麻省理工學院、加州大學洛杉磯分校和得克薩斯大學奧斯汀分校的認知科學家、語言學家、神經科學家和計算機科學家組成的團隊在1月份發表了一篇研究論文,探討了大型語言模型的能力與人類的能力有何不同。

    該團隊得出結論稱,盡管大型語言模型展示了令人印象深刻的語言技能,包括連貫地就給定主題寫出復雜文章的能力,但這與理解語言以及如何在世界上使用語言截然不同。這其中存在的脫節問題可能是語言模型開始模仿堆疊物體或解決謎語所需常識推理的原因。但是,當涉及到理解社會關系、物理世界如何運作以及人們如何思考時,這些系統仍然會犯奇怪的錯誤。

    這些模型使用語言的方式,通過預測最可能出現在給定字符串后面的單詞,與人類通過說話或寫作來傳達概念或意圖的方式也有很大不同。這種統計方法可能會導致聊天機器人跟隨并反映用戶提示的語言,甚至到了荒謬的地步。

    例如,當一個聊天機器人告訴某人離開他們的配偶時,它只會給出在對話線索下看起來最合理的答案。ChatGPT和類似的機器人將使用第一人稱,因為它們接受過人類寫作的訓練。但它們沒有始終如一的自我意識,可以在瞬間改變自己聲稱的信仰或經歷。OpenAI還使用來自人類的反饋來引導模型生成人們認為更連貫和正確的答案,這可能會促使模型提供被認為更令人滿意的答案,而不管它們是否準確。

    麻省理工學院教授喬希·特南鮑姆是1月份那篇論文的撰稿人之一,他研究人類認知以及如何利用機器探索人類認知。他說,GPT-4很了不起,但在很多方面與人類智能有很大不同。例如,它缺乏對人類思維至關重要的那種動機,“它甚至不在乎是否關閉”。人類不是簡單地遵循自己的程序,而是根據自己的需要和愿望為自己創造新的目標。

    特南鮑姆還稱,GPT-3、GPT-4和ChatGPT之間發生許多關鍵的工程變化,使它們的能力更加強大。首先,該模型是在大量計算機代碼上進行訓練的。他和其他人認為,人腦可能使用類似于計算機程序的東西來處理部分認知任務,所以也許GPT-4從代碼中發現的模式中學到了非常有用的東西。他還指出,ChatGPT從人類那里得到的反饋是一個關鍵因素。

    但特南鮑姆表示,由此產生的能力并不等同于人類智力特征中的一般智力。他說:“我對人類個體和集體的認知能力很感興趣,這不僅僅是一種執行一大堆任務的能力。我們制造任務,我們也能制造解決這些任務的機器。”

    特南鮑姆還說,目前還不清楚未來幾代GPT能否獲得這些能力,除非采用一些不同的技術,這可能意味著從機器學習之外的人工智能研究領域汲取靈感。重要的是,要仔細考慮我們是否要以這種方式設計系統,因為這樣做可能會產生不可預見的后果。

    1月份那篇論文的另一位作者、得克薩斯大學奧斯汀分校語言學助理教授凱爾·馬霍瓦爾德說,基于GPT-4能力的單個例子做出任何判斷都是錯誤的。他解釋稱,認知心理學的工具可以用來衡量這些模型的智力。但他補充說,GPT-4的不透明性使挑戰變得更復雜。重要的是訓練數據中有什么,我們不知道。如果GPT-4在那些明確訓練過的常識性推理任務上取得成功,而在其他沒有訓練過的任務上失敗,很難據此得出結論。

    那么,GPT-4是否可以被視為邁向通用人工智能的一小步,完全取決于你的看法。重新定義這個詞可能是最令人滿意的答案。斯坦福大學心理學、計算機科學和語言學副教授諾亞·古德曼表示:“我現在的觀點是,這就是通用人工智能,因為它是一種通用的智能,但前提是我們對通用人工智能的含義不那么固執。”

    不幸的是,GPT-4和ChatGPT被設計為抵制這種簡單的重構。它們很聰明,但幾乎沒有提供關于如何或為什么的見解。更重要的是,人類使用語言的方式依賴于在對話的另一邊有一個智能實體的心理模型來解釋我們所表達的詞語和想法。我們不禁發現,如此輕松使用語言的生物身上閃爍著智慧的光芒。古德曼說:“如果預言模式是有意義的,那么人類天生就會把它們理解為有意的,并適應這種情況。”

    人工智能不像人類,卻看起來如此聰明,這一事實仍然令人驚嘆。古德曼稱:“我們獲得了大量的原始智力,但它不一定帶有自我觀點、目標或連貫的自我意識。然而對我來說,這已經足夠迷人了。”(金鹿)

    關鍵詞:

    上一篇:困在加班中:大廠員工每天工作長達13小時,公司曾把加班列入KPI
    下一篇:最后一頁

    亚洲成a人一区二区三区| 亚洲精品无码mⅴ在线观看| 国产亚洲欧洲精品| 亚洲人成电影青青在线播放| 亚洲欧洲久久av| 亚洲一级免费视频| 亚洲精品中文字幕乱码三区| 亚洲成a∨人片在无码2023| 99久久国产亚洲综合精品| 亚洲国产人成在线观看69网站| 欧美日韩亚洲精品| 亚洲噜噜噜噜噜影院在线播放| 亚洲精品日韩中文字幕久久久| 久久久久亚洲av成人无码电影| 亚洲永久网址在线观看| 亚洲色图视频在线观看| 亚洲男人天堂影院| 亚洲一级高清在线中文字幕| 亚洲资源最新版在线观看| 中文字幕亚洲综合久久| 国产亚洲精品岁国产微拍精品| 亚洲精品成人网站在线观看 | 亚洲一区二区三区高清不卡| 中文字幕乱码亚洲精品一区| 亚洲av永久无码精品秋霞电影秋| 亚洲欧洲日产国码二区首页| 亚洲av无码国产精品夜色午夜| 国产成人亚洲精品91专区手机| 亚洲日韩一页精品发布| 亚洲精品无码永久在线观看| 精品韩国亚洲av无码不卡区 | 亚洲丝袜美腿视频| 亚洲日韩欧洲乱码AV夜夜摸| 久久香蕉国产线看观看亚洲片| 自怕偷自怕亚洲精品| 国产v亚洲v天堂a无| 亚洲av日韩av永久在线观看| 亚洲熟妇少妇任你躁在线观看无码| 亚洲人成网站在线观看播放| 久久久亚洲欧洲日产国码aⅴ| 久久久久精品国产亚洲AV无码|