劃重點:
(資料圖片僅供參考)
騰訊科技訊 6月22日消息,今年5月,OpenAI的首席執行官薩姆·奧特曼(Sam Altman)到訪世界各國首都,與滿座的人群交談并與政府首腦會晤時,他一再談到全球人工智能監管的必要性。
但根據外媒從歐盟委員會獲得的有關OpenAI與歐盟官員接觸的文件顯示,在幕后,OpenAI一直通過游說希望對《人工智能法案》(AI Act)進行調整,以減輕該公司的監管負擔。《人工智能法案》目前是全球最全面的人工智能法案。本月中旬,歐洲議會投票通過了該法案,禁止實時面部識別,并對ChatGPT等生成式人工智能工具提出了新的透明度要求。《人工智能法案》現在將進入歐盟啟動監管前的最后階段。歐盟官員將嘗試就這一法律草案與歐盟行政部門和成員國達成妥協,他們之間目前仍存分歧。如果該法案要在歐盟明年的選舉前生效,則必須在明年1月完成立法程序。
2022年,OpenAI一再向歐洲官員提出,即將出臺的《人工智能法案》不應將OpenAI的通用人工智能系統--包括ChatGPT的前身GPT-3和圖像生成器Dall-E 2--視為“高風險”。如果被納入“高風險”范圍,將使它們受到嚴格的法律監管,包括透明度、可追溯性和人力監督。
這種做法使OpenAI與已向自己投資130億美元的微軟,以及互聯網搜索巨頭谷歌站在了一起。這兩家公司此前都曾游說歐盟官員,支持放松該法案對大型人工智能提供商的監管。兩家公司都認為,遵守該法案最嚴格要求的責任應該由明確將人工智能應用于高風險用例的公司承擔,而不是由構建通用人工智能系統的公司承擔。
“就其本身而言,GPT-3并不是一個高風險系統,”OpenAI在一份此前未公開的7頁文件中說,該文件于2022年9月發送給歐盟委員會和理事會官員,題為《OpenAI關于歐盟人工智能法案的白皮書》。“但是它擁有可以在高風險用例中使用的可能性。”
OpenAI在歐洲的這些游說努力之前從未被報道,而奧特曼最近對歐盟《人工智能法案》變得更加直言不諱。今年5月,他在倫敦告訴記者,如果OpenAI認為自己無法遵守規定,它可以決定在歐洲“停止運營”,他說為此他受到“很多”批評。奧特曼后來收回了警告,說自己的公司沒有離開歐洲的計劃,并打算與歐盟合作。
盡管如此,OpenAI的游說努力似乎是成功的:歐盟立法者批準的法案最終草案沒有包含早期草案中的措辭,即通用人工智能系統應被視為與生俱來的高風險。相反,達成一致的法律要求所謂的“基礎模型”,即經過大量數據訓練的強大人工智能系統的提供商,遵守少量要求,包括防止非法內容的產生,披露系統是否經過版權材料訓練,以及進行風險評估。知情人士透露,OpenAI支持將“基礎模型”作為法案中的一個獨立類別。
回到2022年9月,歐盟委員會這一明顯的讓步尚未達成。在當時OpenAI與歐洲官員分享的白皮書中,該公司抵制了《人工智能法案》中一項擬議修正案。該修正案認為,如果ChatGPT和Dall-E等生成式人工智能系統生成的文本或圖像可能“在人看來是由人類生成的,是真實的”,那么就應當歸類為“高風險”。OpenAI在白皮書中表示,這一修正案將意味著他們的模型可能“無意中”被視為高風險,并建議廢除該修正案。該公司認為,相反,依賴該法案的另一部分就足夠了,該部分要求人工智能提供商充分標記人工智能生成的內容,并讓用戶明白他們正在與人工智能系統進行互動。
OpenAI提出異議的修正案沒有被納入歐洲議會6月份批準的《人工智能法案》最終文本中。“他們得到了他們想要的,”歐洲數字權利的高級政策顧問莎拉·錢德爾(Sarah Chander)說。她說,這份文件“表明OpenAI和許多大型科技公司一樣,利用人工智能的效用和公共利益來掩蓋他們淡化監管的財務利益。”
OpenAI發言人對此表示:“應歐盟政策制定者的要求,2022年9月,我們提供了一份關于我們安全部署GPT-3等系統的方法的概述,并根據這一經驗對當時的《人工智能法案》草案進行了評論。從那以后,《人工智能法案》已經有了實質性的發展,我們已經公開談論過這項技術的進步能力和應用。我們繼續與政策制定者合作,并支持歐盟的目標,即確保現在和未來安全地構建、部署和使用人工智能工具。”
2022年6月,在提交白皮書的三個月前,三名OpenAI工作人員在布魯塞爾首次會見了歐盟委員會官員。“OpenAI希望歐盟委員會澄清風險框架,并知道他們如何能夠提供幫助,”歐盟委員會保存的官方會議記錄顯示。“他們擔心通用人工智能系統會被列為高風險系統,并擔心更多的系統會被默認為高風險系統,”據一名直接了解此次接觸的歐盟委員會消息人士稱,官員們從那次會議中獲得的信息是,OpenAI和其他大型科技公司一樣,害怕可能影響人工智能創新的“過度監管”。該消息人士稱,OpenAI的員工在會議上表示,他們意識到了風險,并盡一切努力減輕風險,但員工沒有明確表示,由于他們的努力,OpenAI應該受到更寬松的監管。他們也沒有說他們希望看到什么樣的監管。“OpenAI沒有告訴我們好的監管應該是什么樣子,”該人士表示。
白皮書似乎是OpenAI提供這種投入的方式。在該文件的一個部分,OpenAI詳細描述了它用來防止其生成式人工智能工具被濫用的政策和安全機制,包括禁止生成特定個人的圖像,通知用戶他們正在與人工智能互動,以及開發工具來檢測圖像是否是人工智能生成的。在概述了這些措施之后,OpenAI似乎暗示這些安全措施應該足以防止其系統被視為“高風險”。
OpenAI在白皮書中還表示:“我們相信,我們降低系統通用性質風險的方法是行業領先的。盡管采取了上述措施,但我們擔心,圍繞通用系統的擬議語言可能會無意中導致我們所有的通用人工智能系統被默認為高風險。”
審閱OpenAI白皮書的Access Now布魯塞爾辦事處專注于人工智能的高級政策分析師丹尼爾·勒弗(Daniel Leufer)表示:“他們說的基本上是:相信我們會自我監管。這非常令人困惑,因為他們對政客說,‘請監管我們’,他們吹噓他們所做的所有(安全)事情,但你一說,‘好吧,讓我們相信你的話,把它定為監管底線’,他們就說不。”
在白皮書的其他部分,OpenAI主張修改該法案,允許人工智能提供商出于安全原因快速更新他們的系統,而不必首先經過歐盟官員可能很長的評估。
該公司還主張破例允許在教育和就業領域使用生成式人工智能。OpenAI認為,例如,人工智能系統起草工作描述的能力不應被視為“高風險”用例,也不應被視為在教育環境中使用人工智能起草考試問題以供人類管理。OpenAI去年9月表達了這些擔憂后,該法案增加了一項豁免,“非常符合OpenAI的愿望,即從系統范圍中刪除那些對人類決策沒有實質性影響或只是有助于決策的系統,”勒弗說。
OpenAI繼續與致力于同歐盟官員就《人工智能法案》問題進行接觸。在今年3月31日的一次會議上,根據歐盟委員會保存的官方會議記錄,OpenAI對ChatGPT的安全功能進行了演示。OpenAI的工作人員在會上解釋了在操作中學習的做法,即該公司在全球發布人工智能模型并根據公眾使用情況進行調整。該員工稱,這種做法“非常重要。”
根據記錄,OpenAI還在會議期間告訴官員,“對人工智能的指示可以調整為拒絕共享例如如何制造危險物質的信息”。情況并非總是如此。研究人員已經證明,在正確的哄騙下,ChatGPT可能容易被越獄行為利用。在這種情況下,特定的提示可能會導致它繞過其安全過濾器,并遵守指令,如編寫釣魚電子郵件或提供危險物質的配方。(無忌)