劃重點(diǎn)
1被稱為“人工智能教父”的杰弗里·辛頓博士宣布從谷歌離職,并計(jì)劃對(duì)他長(zhǎng)期推崇的這項(xiàng)技術(shù)的風(fēng)險(xiǎn)發(fā)出警告。 2辛頓博士解釋了GPT-4比任何同類模型都更強(qiáng)大的原因,并稱他現(xiàn)在認(rèn)為數(shù)字智能比生物智能更強(qiáng)大,也更危險(xiǎn)。 3辛頓博士稱,科技巨頭陷入了一場(chǎng)可能無法阻止的競(jìng)爭(zhēng)。他最擔(dān)心的是,互聯(lián)網(wǎng)上將充斥著虛假的照片、視頻和文字,普通人將“再也無法辨別真相”。 4辛頓博士擔(dān)心未來的人工智能技術(shù)會(huì)對(duì)人類生存構(gòu)成威脅,因?yàn)樗鼈兘?jīng)常從分析的大量數(shù)據(jù)中學(xué)習(xí)意想不到的行為,真正的自主武器(比如殺人機(jī)器人)將會(huì)成為現(xiàn)實(shí)。騰訊科技訊 5月2日消息,被稱為“人工智能教父”的杰弗里·辛頓博士(Geoffrey Hinton)宣布從谷歌離職。半個(gè)世紀(jì)以來,杰弗里·辛頓幫助開發(fā)了ChatGPT等聊天機(jī)器人的核心技術(shù)。現(xiàn)在,他開始擔(dān)心該技術(shù)會(huì)造成嚴(yán)重的傷害。
【資料圖】
“就算我不做,別人也會(huì)做的”
杰弗里·辛頓是人工智能領(lǐng)域的先驅(qū)。2012年,辛頓博士和他在多倫多大學(xué)的兩名研究生開發(fā)的技術(shù),成為了人工智能系統(tǒng)的智力基礎(chǔ)。科技行業(yè)最大的公司認(rèn)為,人工智能系統(tǒng)是它們未來的關(guān)鍵。
然而,辛頓博士本周正式加入了越來越多的批評(píng)人士行列。他們認(rèn)為,這些公司積極開發(fā)基于生成式人工智能(AIGC)的產(chǎn)品,正在走向危險(xiǎn)。這種技術(shù)為ChatGPT等流行聊天機(jī)器人提供動(dòng)力。
辛頓博士說,他已經(jīng)辭去了谷歌的工作。他在谷歌工作了十多年,并成為該領(lǐng)域最受尊敬的專家之一,所以他可以從技術(shù)層面解讀人工智能的風(fēng)險(xiǎn)。辛頓博士表示,他現(xiàn)在內(nèi)心有幾分對(duì)自己畢生的工作感到后悔。
“我用常用的借口來安慰自己:就算我不做,別人也會(huì)做的,”上周,辛頓博士在多倫多家中的餐廳接受了媒體專訪,那里距離他和學(xué)生取得突破的地方只有幾步之遙。
辛頓博士從人工智能的開拓者向末日預(yù)言者的轉(zhuǎn)變,標(biāo)志著科技行業(yè)正處于一個(gè)不同尋常的時(shí)刻,這可能是幾十年來最重要的拐點(diǎn)。行業(yè)領(lǐng)袖認(rèn)為,新的人工智能系統(tǒng)可能與上世紀(jì)90年代初推出的網(wǎng)絡(luò)瀏覽器一樣重要,可能會(huì)在藥物研究和教育等領(lǐng)域帶來突破。
然而,令許多業(yè)內(nèi)人士苦惱的是,他們擔(dān)心自己正在釋放一些危險(xiǎn)的東西。AIGC已經(jīng)可以成為制造錯(cuò)誤信息的工具。很快,這可能會(huì)對(duì)就業(yè)構(gòu)成威脅。科技行業(yè)最大的擔(dān)憂者表示,在未來的某個(gè)時(shí)候,AIGC甚至可能會(huì)對(duì)人類生存構(gòu)成威脅。
辛頓博士說:“很難想象如何才能阻止壞人利用它做壞事。”
新一代聊天機(jī)器人
舊金山初創(chuàng)公司OpenAI今年3月發(fā)布了新版ChatGPT后,1000多名技術(shù)領(lǐng)袖和研究人員簽署了一封公開信,呼吁暫停新系統(tǒng)的開發(fā)六個(gè)月,因?yàn)槿斯ぶ悄芗夹g(shù)“對(duì)社會(huì)和人類構(gòu)成了深刻的風(fēng)險(xiǎn)”。
幾天后,有40年歷史的學(xué)術(shù)團(tuán)體人工智能促進(jìn)協(xié)會(huì)的19位在任和前任領(lǐng)導(dǎo)人發(fā)表了他們自己的公開信,警告人工智能的風(fēng)險(xiǎn)。該組織成員包括微軟首席科學(xué)官埃里克·霍維茨,而微軟已將OpenAI的技術(shù)應(yīng)用于一系列產(chǎn)品,包括必應(yīng)搜索引擎。
常被稱為“人工智能教父”的辛頓博士沒有在這兩封公開信上簽名,他說,在辭職之前,他不想公開批評(píng)谷歌或其他公司。上個(gè)月,他通知公司自己將辭職,并與谷歌及其母公司Alphabet的首席執(zhí)行官桑達(dá)爾·皮查伊通了電話。他拒絕公開討論與皮查伊談話的細(xì)節(jié)。
谷歌人工智能業(yè)務(wù)的首席科學(xué)家杰夫·迪恩在一份聲明中表示:“我們?nèi)匀恢铝τ谝载?fù)責(zé)任的態(tài)度開發(fā)和部署人工智能技術(shù)。我們?cè)诓粩鄬W(xué)習(xí)理解新出現(xiàn)的風(fēng)險(xiǎn)的同時(shí),也在大膽創(chuàng)新。”
開發(fā)神經(jīng)網(wǎng)絡(luò)獲圖靈獎(jiǎng)
現(xiàn)年75歲的辛頓博士是英國(guó)僑民,他一生從事學(xué)術(shù)工作,其對(duì)人工智能的發(fā)展和使用的個(gè)人信念推動(dòng)了整個(gè)職業(yè)生涯的發(fā)展。1972年,作為愛丁堡大學(xué)的研究生,辛頓博士接受了名為神經(jīng)網(wǎng)絡(luò)的想法。神經(jīng)網(wǎng)絡(luò)是一種通過分析數(shù)據(jù)來學(xué)習(xí)技能的數(shù)學(xué)系統(tǒng)。當(dāng)時(shí),很少有研究人員相信這個(gè)想法,但這成了他畢生的事業(yè)追求。
20世紀(jì)80年代,辛頓博士成為卡內(nèi)基梅隆大學(xué)的計(jì)算機(jī)科學(xué)教授,但他離開了這所大學(xué)前往加拿大,因?yàn)樗f自己不愿接受美國(guó)國(guó)防部的資助。當(dāng)時(shí),美國(guó)的大多數(shù)人工智能研究都由國(guó)防部資助。辛頓博士強(qiáng)烈反對(duì)在戰(zhàn)場(chǎng)上使用人工智能,他稱之為“機(jī)器人士兵”。
2012年,辛頓博士和他在多倫多的兩名學(xué)生伊利亞·蘇斯凱弗和亞歷克斯·克里舍夫斯基建立了一個(gè)神經(jīng)網(wǎng)絡(luò),它可以分析數(shù)千張照片,并自學(xué)識(shí)別常見物體,比如花、狗和汽車等。
谷歌斥資4400萬美元收購(gòu)了辛頓博士和他的兩個(gè)學(xué)生創(chuàng)辦的公司。他們的系統(tǒng)催生了越來越強(qiáng)大的技術(shù),包括ChatGPT和谷歌Bard等新型聊天機(jī)器人。蘇斯凱弗后來成為OpenAI的首席科學(xué)家。2018年,辛頓博士和另外兩位長(zhǎng)期合作者因在神經(jīng)網(wǎng)絡(luò)方面的工作獲得了圖靈獎(jiǎng),這一獎(jiǎng)項(xiàng)通常被稱為“計(jì)算界的諾貝爾獎(jiǎng)”。
數(shù)字智能更強(qiáng)大
大約在同一時(shí)間,谷歌、OpenAI和其他公司開始構(gòu)建從大量數(shù)字文本中學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)。辛頓博士認(rèn)為,這是機(jī)器理解和生成語(yǔ)言的一種強(qiáng)大方式,但它仍不如人類處理語(yǔ)言的方式。
去年,隨著谷歌和OpenAI構(gòu)建了使用大量數(shù)據(jù)的系統(tǒng),他的觀點(diǎn)發(fā)生了變化。他仍然認(rèn)為這些系統(tǒng)在某些方面不如人類大腦,但他認(rèn)為它們?cè)谄渌矫媸谷祟惖闹腔埙鋈皇P令D博士說:“也許這些系統(tǒng)中發(fā)生的事情實(shí)際上比大腦中發(fā)生的事情要好得多。”
辛頓博士認(rèn)為,隨著公司對(duì)人工智能系統(tǒng)的改進(jìn),它們會(huì)變得越來越危險(xiǎn)。“看看五年前和現(xiàn)在的情況,”他在談到人工智能技術(shù)時(shí)說。“它們開似乎接受差異并將其向前傳播,這是非常可怕的。”
辛頓博士表示:“我現(xiàn)在認(rèn)為,我們正在創(chuàng)造的數(shù)字智能與生物智能截然不同。如果我有1000個(gè)數(shù)字代理,它們都是完全相同權(quán)重的克隆體,每當(dāng)一個(gè)代理學(xué)習(xí)如何做某事時(shí),所有代理都會(huì)立即學(xué)會(huì),因?yàn)樗鼈児蚕頇?quán)重。而生物智能做不到這一點(diǎn)。因此,相同的數(shù)字代理集合可以獲得比任何單個(gè)生物代理多得多的知識(shí)。這就是為什么GPT-4比任何同類模型都更強(qiáng)大的原因。”
辛頓博士在2021年孟買印度理工學(xué)院的畢業(yè)典禮上說:“我相信人工智能的快速發(fā)展將以我們尚未完全理解的方式改變社會(huì),并不是所有的影響都是好的。”他指出,人工智能可能會(huì)促進(jìn)醫(yī)學(xué)發(fā)展,同時(shí)也可能被用于創(chuàng)造致命的自主武器。“我發(fā)現(xiàn)這種前景比機(jī)器人取代人類的前景更直接,也更可怕,我認(rèn)為機(jī)器人取代人類還有很長(zhǎng)的路要走。”
人工智能競(jìng)賽需全球監(jiān)管
辛頓博士透露,直到去年,谷歌一直是這項(xiàng)技術(shù)的“適當(dāng)管理者”,小心翼翼地不釋放可能造成傷害的東西。但是現(xiàn)在微軟用聊天機(jī)器人增強(qiáng)了必應(yīng)搜索引擎以挑戰(zhàn)谷歌的核心業(yè)務(wù),后者也開始競(jìng)相部署同樣的技術(shù)。
辛頓博士說,科技巨頭陷入了一場(chǎng)可能無法阻止的競(jìng)爭(zhēng)。他最擔(dān)心的是,互聯(lián)網(wǎng)上將充斥著虛假的照片、視頻和文字,普通人將“再也無法辨別真相”。
他還擔(dān)心人工智能技術(shù)最終會(huì)顛覆就業(yè)市場(chǎng)。如今,像ChatGPT這樣的聊天機(jī)器人往往是對(duì)人類工作者能力的補(bǔ)充,但它們也可能取代律師助理、個(gè)人助理、翻譯和其他從事機(jī)械式重復(fù)任務(wù)的人。他說:“它們承擔(dān)了繁重的工作,但帶走的可能不止這些。”
辛頓博士擔(dān)心未來的人工智能技術(shù)會(huì)對(duì)人類生存構(gòu)成威脅,因?yàn)樗鼈兘?jīng)常從分析的大量數(shù)據(jù)中學(xué)習(xí)意想不到的行為。他說,這成了一個(gè)問題,因?yàn)閭€(gè)人和公司不僅允許人工智能系統(tǒng)生成自己的計(jì)算機(jī)代碼,還允許它們自己運(yùn)行這些代碼。他擔(dān)心有一天真正的自主武器(比如殺人機(jī)器人)會(huì)成為現(xiàn)實(shí)。
辛頓博士說:“有些人相信,這類機(jī)器實(shí)際上會(huì)變得比人更聰明。但大多數(shù)人認(rèn)為這太離譜了,我也這么認(rèn)為。我曾預(yù)計(jì),這需要30年、50年甚至更長(zhǎng)的時(shí)間。顯然,我現(xiàn)在不再這么認(rèn)為了。”
包括他的許多學(xué)生和同事在內(nèi)的許多其他專家表示,這種威脅屬于假想。但辛頓博士認(rèn)為,谷歌和微軟以及其他公司之間的競(jìng)爭(zhēng)將升級(jí)為一場(chǎng)全球競(jìng)爭(zhēng),如果沒有某種全球性監(jiān)管,這場(chǎng)競(jìng)賽是不會(huì)停止的。
但辛頓博士認(rèn)為這個(gè)問題很難解決。他說,與核武器不同的是,我們沒有辦法知道公司或國(guó)家是否在秘密開發(fā)這項(xiàng)技術(shù),最大的希望是世界領(lǐng)先的科學(xué)家攜手合作。“我認(rèn)為人們不應(yīng)該擴(kuò)大人工智能研發(fā)規(guī)模,直到他們明白自己是否可以控制它。”
辛頓博士說,當(dāng)過去人們問他如何才能研發(fā)出具有潛在危險(xiǎn)的技術(shù)時(shí),他會(huì)用領(lǐng)導(dǎo)美國(guó)制造原子彈的羅伯特·奧本海默的話來解釋:“當(dāng)你看到某種技術(shù)上令人興奮的東西時(shí),你就會(huì)去做。”但他現(xiàn)在不再這么說了。(金鹿)