經(jīng)濟(jì)觀察網(wǎng) 記者 錢玉娟 北京時(shí)間6月20日,OpenAI公司聯(lián)合創(chuàng)始人、前首席科學(xué)家伊爾亞·蘇茨克維通過(guò)社交媒體X宣布,創(chuàng)業(yè)成立了一家名為Safe SuperIntelligence(安全超級(jí)智能,下稱“SSI”)的人工智能公司。
伊爾亞還發(fā)出了一份個(gè)人署名公告,他強(qiáng)調(diào)構(gòu)建安全的超級(jí)智能是當(dāng)下時(shí)代最重要的技術(shù)問(wèn)題,已經(jīng)啟動(dòng)了世界上第一個(gè)專注于安全超級(jí)智能的實(shí)驗(yàn)室,而SSI“只有一個(gè)重點(diǎn)、一個(gè)目標(biāo)和一個(gè)產(chǎn)品”,那就是安全超級(jí)智能。
去年11月,由伊爾亞領(lǐng)導(dǎo)的OpenAI的AI安全團(tuán)隊(duì)曾發(fā)起一場(chǎng)“政變”,罷免聯(lián)合創(chuàng)始人薩姆·奧特曼,最終,奧特曼回歸,但整個(gè)事件卻暴露了OpenAI的發(fā)展隱憂——對(duì)商業(yè)化及AI安全性戰(zhàn)略難以平衡。
伊爾亞一直擔(dān)心AGI(通用人工智能)在未來(lái)幾年實(shí)現(xiàn)超級(jí)智能后會(huì)存在危險(xiǎn),他曾通過(guò)一篇博客表達(dá),“巨大的超級(jí)智能力量可能導(dǎo)致人類被剝奪權(quán)力甚至滅絕”。雖然OpenAI成立之初的使命是構(gòu)建安全又有益的AGI,但伊爾亞發(fā)現(xiàn)團(tuán)隊(duì)的目標(biāo)和方向已經(jīng)變化,直到今年5月15日,他突然在X上宣布離開(kāi)OpenAI。
伊爾亞出走后,過(guò)去由他帶領(lǐng)的OpenAI超級(jí)對(duì)齊團(tuán)隊(duì)成員接連離職。之后,OpenAI選擇解散內(nèi)部關(guān)注模型長(zhǎng)遠(yuǎn)安全的團(tuán)隊(duì),并在公司章程中刪除了不能用于“軍事與戰(zhàn)爭(zhēng)”的條款。
OpenAI在組織震蕩后的動(dòng)作,引發(fā)業(yè)內(nèi)對(duì)其AGI研究現(xiàn)狀的擔(dān)憂。在此期間,伊爾亞與投資人、前蘋果公司人工智能主管丹尼爾·格羅斯以及OpenAI原研究員丹尼爾·利維聯(lián)合創(chuàng)業(yè),試圖通過(guò)人工智能系統(tǒng)中的相關(guān)工程突破實(shí)現(xiàn)安全。
伊爾亞在公告中稱,SSI不會(huì)受到管理費(fèi)用或產(chǎn)品周期的干擾,業(yè)務(wù)模式意味著安全、保障和進(jìn)步都不會(huì)受到短期商業(yè)壓力的影響。
但中國(guó)社會(huì)科學(xué)院科學(xué)技術(shù)和社會(huì)研究中心主任段偉文卻指出了伊爾亞推進(jìn)安全超級(jí)智能背后的悖論。
“AI大模型在智能上一旦超出人類,它所具有的不可解釋性和不透明性,都會(huì)讓人類對(duì)AI大模型的認(rèn)知與控制變得非常困難。”段偉文認(rèn)為,伊爾亞此前在OpenAI內(nèi)部推行的“超級(jí)對(duì)齊”,具體方法是通過(guò)比較低級(jí)的大模型去控制更強(qiáng)大的大模型,這件事情本就跟OpenAI的商業(yè)化相沖突。
SSI的安全超級(jí)智能相關(guān)研究,被段偉文視為AI治理的一種服務(wù),這必然依靠各種大模型的數(shù)據(jù),假若OpenAI不與SSI合作,其他的大模型廠商會(huì)否愿意與SSI合作成為段偉文關(guān)注的方面。
從當(dāng)前大模型在全球范圍引發(fā)的技術(shù)熱潮看,各國(guó)都在依據(jù)各自的技術(shù)水平、重視程度對(duì)大模型展開(kāi)研究。段偉文認(rèn)為,伊爾亞獨(dú)立推進(jìn)安全超級(jí)智能,格外需要在國(guó)際上形成前沿人工智能或超級(jí)智能安全研究的共識(shí),只有在此基礎(chǔ)上,才有可能將項(xiàng)目推進(jìn)下去,實(shí)現(xiàn)相關(guān)數(shù)據(jù)共享等。
段偉文對(duì)伊爾亞突然宣布的創(chuàng)業(yè)消息并不意外,但在他看來(lái),SSI未來(lái)能否活下去,與國(guó)際上是否已經(jīng)對(duì)安全超級(jí)智能達(dá)成共識(shí)息息相關(guān)。