<nav id="4uuuu"></nav>
  • <tr id="4uuuu"></tr>
  • <tr id="4uuuu"></tr>
  • <tfoot id="4uuuu"><dd id="4uuuu"></dd></tfoot>
    • <noscript id="4uuuu"><optgroup id="4uuuu"></optgroup></noscript>

      久久精品福利网站免费,亚洲色大情网站WWW在线观看,久久水蜜桃网国产免费网手机 ,男女性高视频免费观看国内,老色鬼第一页av在线,久久久久精品婷婷

      人工智能“真假”開源,如何負(fù)起責(zé)任?

      肖瀟2024-02-05 07:48

      1997年,一位程序員寫下名為《大教堂與集市》的文章,首次提出了開放源代碼(Open Soure)的概念,提倡軟件源代碼能被任何人查看、修改、分發(fā)。開源自此深刻影響了互聯(lián)網(wǎng)行業(yè)的每一個角落。

      在生成式AI崛起的當(dāng)下,開源再次成為話題焦點:Meta的開源大模型Llama 2公開商用,幾乎一夜之間重塑了大模型的發(fā)展路線;開源社區(qū)Github上的生成式AI項目,一年同比增加248%;Hugging Face預(yù)言,2024年開源大模型的能力會與閉源持平。

      但就和開源軟件誕生時一樣,開源AI的安全性備受爭議。不同的是,它還面臨著定義模糊、巨頭游戲等新生問題。要不要對開源AI“開綠燈”?不同開放程度的AI都算開源嗎?如何理解它們的價值和風(fēng)險?

      帶著這些問題,近日多位學(xué)界和業(yè)界專家參加了“清華伍舜德樓行政法學(xué)工作坊·人工智能立法之開源發(fā)展與法律規(guī)制”會議,一同討論開源AI的規(guī)制問題。本次會議由清華大學(xué)科技發(fā)展與治理研究中心及清華大學(xué)公共管理學(xué)院政府法制研究中心共同舉辦,清華大學(xué)公共管理學(xué)院院長朱旭峰教授、清華大學(xué)公共管理學(xué)院于安教授致歡迎辭。

      現(xiàn)狀:開源豁免

      盡管生成式AI的風(fēng)險一直處于風(fēng)口浪尖,但不管是從業(yè)者還是監(jiān)管者,目前都對開源AI更為包容。

      以歐盟為例,即將發(fā)布的兩部法律為開源AI明確亮了“綠燈”。同濟(jì)大學(xué)法學(xué)院助理教授、上海市人工智能社會治理協(xié)同創(chuàng)新中心研究員朱悅介紹,一部是接近全文定稿的歐盟《人工智能法案》,目前的版本將不會監(jiān)管免費、開源的AI系統(tǒng);另一部則是《產(chǎn)品責(zé)任指令》。這一指令將AI產(chǎn)品納入了適用范圍,也就是當(dāng)AI系統(tǒng)里的軟件、硬件作為產(chǎn)品投向市場時,需要遵守相應(yīng)條款,但“在商業(yè)活動之外研發(fā)、提供自由且開源的軟件”除外。

      中美也有類似的探索。比如中國社科院與南財合規(guī)科技研究院共同起草的《人工智能示范法(專家建議稿)》擬定,“免費且開源提供人工智能的個人、組織能證明已經(jīng)采取足夠安全措施的,可以減輕或不承擔(dān)責(zé)任。”最近兩位美國議員的《人工智能基礎(chǔ)模型透明度法案》提案備受關(guān)注,當(dāng)中開源模型也享有豁免權(quán)。 

      這種普遍寬松的態(tài)度,朱悅認(rèn)為主要目的是鼓勵創(chuàng)新、促進(jìn)技術(shù)交流。從整條人工智能產(chǎn)業(yè)鏈來看,無論是框架性的代碼,還是數(shù)據(jù)、預(yù)訓(xùn)練模型、評估基準(zhǔn),開源都發(fā)揮了難以替代的作用。以評估基準(zhǔn)為例,“如果做出了AI大模型,要看它達(dá)到了怎樣的性能水平,就需要跟其他大模型的基準(zhǔn)比較。但這種評估基準(zhǔn)存在于哪里?很多時候離不開開源平臺,比如Hugging Face。可以說,大部分AI組件都是在開源的生態(tài)里發(fā)生的。”朱悅說。

      中國信息通信研究院的人工智能研究中心高級業(yè)務(wù)主管呼娜英同樣表示,相比于工業(yè)時代的封閉產(chǎn)業(yè)模式,開源的分工效率更高。開源AI在建設(shè)一個開放的產(chǎn)業(yè)生態(tài)上有重要作用,在產(chǎn)業(yè)經(jīng)濟(jì)的貢獻(xiàn)上,它的作用也是顯而易見的。

      而更直接的原因是,開源本身就意味著更透明。朱悅指出,在GitHub、hugging face這些開源社區(qū)上傳AI組件時,開發(fā)者需要披露權(quán)重、參數(shù)、架構(gòu)等詳細(xì)信息,來幫助其他人更好地使用,實際上已經(jīng)履行了監(jiān)管者期待的大部分義務(wù)。所以,“已經(jīng)有很好的自我監(jiān)督、社群監(jiān)督,還有沒有必要再施加硬性監(jiān)管?需要考慮。”

      難題:開源“留一手”

      更透明、更創(chuàng)新是開源的固有優(yōu)勢,但碰上生成式AI,開源有新的問題要面對。

      多位專家都提到,要警惕AI“假開源”的現(xiàn)象:目前的開源AI往往是“有限的開放”,只公開模型架構(gòu),很少公開訓(xùn)練數(shù)據(jù)和過程。除此之外,它可以限制使用者身份,限制核心功能的使用,還可以選擇舊版本開源、新版本閉源。比如開源界的明星Llama2大模型,其實就限制了月活躍用戶超過7億的公司使用。

      究其原因,21世紀(jì)經(jīng)濟(jì)報道合規(guī)科技部副主任王俊指出,開源站在法律、技術(shù)、商業(yè)的交叉口,開源AI更多時候是一種商業(yè)選擇。

      星紀(jì)魅族集團(tuán)數(shù)據(jù)合規(guī)執(zhí)行總監(jiān)朱玲鳳進(jìn)一步解釋,目前有些開源AI由頭部公司主導(dǎo),“越多人使用,就越能強化網(wǎng)格效應(yīng),而且不是真正的開放,后續(xù)需要使用它們的配套工具、配套服務(wù)。頭部公司還可能利用監(jiān)管豁免的方式,獲得尋租空間。”換言之,以開源為噱頭的巨頭游戲,可能會進(jìn)一步強化大公司的壟斷地位,反而不利于產(chǎn)業(yè)競爭。

      呼娜英還提到,國際科技巨頭在用開源AI擴(kuò)大影響力的同時,潛移默化地推行了一套自己的規(guī)則。產(chǎn)業(yè)自主性、國際依賴性的問題必須要謹(jǐn)慎考慮,國內(nèi)應(yīng)當(dāng)嘗試發(fā)展自己的開源生態(tài)。

      不過限制競爭的隱憂,已經(jīng)得到了一定緩解。朱悅表示,上文提到的歐盟兩部法律,都強調(diào)公益性的、社群性的、自律性的開源。具體來說,它們明確限定了“開源”的附加條件,如果是通過開源換取貨幣對價,綁定額外的服務(wù),或者出于安全、兼容之外的目的獲得個人信息,進(jìn)行商業(yè)變現(xiàn),那就不能享受豁免。此外,法規(guī)還鼓勵通過數(shù)據(jù)卡、模型卡、系統(tǒng)卡等信息披露的方式,進(jìn)一步促進(jìn)行業(yè)互助。

      因此,朱悅認(rèn)為更重要的問題可能是:如何運用立法技術(shù)厘清開源AI的邊界?需不需要設(shè)定,如何設(shè)定最基本的義務(wù)?

      治理:定義與安全風(fēng)險評估難

      是否要對開源豁免,與會專家們有了基本共識:有必要給予支持。但具體如何支持,難點主要來自兩個方面:怎么定義開源AI,以及如何看待開源AI的安全風(fēng)險。

      朱玲鳳發(fā)現(xiàn),對于開源軟件,通過讀取源代碼和技術(shù)文檔,基本能夠復(fù)現(xiàn)軟件。但對于開源AI,只是開放源代碼沒辦法復(fù)現(xiàn)能力,因為AI是由代碼、模型、數(shù)據(jù)、算力等多個組件構(gòu)成的復(fù)雜系統(tǒng),傳統(tǒng)的開源定義沒法沿用。

      作為參照,可以看看開源鼻祖是如何理解這一問題的。寫下《大教堂與集市》、掀起開源運動的程序員,后來創(chuàng)立了著名的開放源代碼促進(jìn)會(OSI)。該組織正在召集全球?qū)<矣懻撻_源AI的定義,其最新報告認(rèn)為開源AI需要提供四種自由:一,為任何目的使用該系統(tǒng),無需征得許可;二,研究系統(tǒng)如何工作,并檢查其組件;三,出于任何目的修改系統(tǒng),包括改變其輸出;四,為任何目的共享系統(tǒng)供他人使用,無論修改與否。

      朱玲鳳分析,OSI的定義明確了開源AI不僅僅指公開模型的源代碼。但仍然不清楚的是,具體開源的對象是什么,是否會設(shè)計不同的開源許可證。

      “在完全封閉和完全開放之間,AI有很多可選路徑,可以有使用限制、完全沒有使用限制,也可以完全封閉、完全不封閉。”安遠(yuǎn) AI 資深研究經(jīng)理方亮補充。在他看來,開源AI需要有更精確的定義,這樣才能理解不同層次的風(fēng)險。

      值得思考的是,開源是否會放大AI的固有安全風(fēng)險。朱玲鳳注意到,OSI認(rèn)為“如何開發(fā)符合道德規(guī)范、值得信賴或負(fù)責(zé)任的人工智能系統(tǒng)”不屬于定義的討論范圍。她擔(dān)憂的是,盡管開源社群的創(chuàng)新價值一再被強調(diào),但社群、協(xié)會并不保證能安全使用開源AI,因此需要同時考慮開放與可信。

      開源的安全性確實一直飽受爭議。《大教堂與集市》一書曾提出名言:“如果有足夠多的眼睛,錯誤將無處遁形。” 簡單來說,就是開源可以利用集體的力量審查技術(shù)、發(fā)現(xiàn)漏洞、修復(fù)缺陷。許多AI科學(xué)家也因此認(rèn)為,長遠(yuǎn)來看,開源是保障AI安全的唯一辦法。

      但呼娜英也指出,不能忽視“目前AI開源的安全風(fēng)險依然非常高,而且與日俱增。我們看到大型的網(wǎng)絡(luò)安全事件基本都與開源有關(guān),對于高風(fēng)險行業(yè),尤其要注意安全和發(fā)展問題。”

      針對開源AI的定義,中國人民公安大學(xué)教授、數(shù)據(jù)法學(xué)研究院院長蘇宇認(rèn)為,可以先豁免完全免費、允許所有人自由訪問和利用的開源AI組件。蘇宇指出,這樣的開源AI組件對人工智能的研發(fā)有著基礎(chǔ)性作用,而且被大量使用者反復(fù)打磨和完善,相對于信息不對稱、不透明的閉源組件和應(yīng)用更安全。“這種情況下,堅持完善透明度義務(wù)就好。其他帶商業(yè)性質(zhì)的開源、不完全開源組件及軟件等的豁免條件,可以待制度實踐更成熟之后逐步確定。”

      保持透明度的基礎(chǔ)義務(wù),分層治理開源AI,也是專家們的共識。比如屬于通用目的、高風(fēng)險,或者基礎(chǔ)模型的開源AI,專家認(rèn)為仍然需要規(guī)制安全風(fēng)險。

      “對于開源AI,要認(rèn)清哪些是固有風(fēng)險,哪些是因為開源而增減、縮放的風(fēng)險。盡可能用精準(zhǔn)敏捷的治理措施,代替一刀切。”蘇宇總結(jié)。

      來源:21世紀(jì)經(jīng)濟(jì)報道 作者:肖瀟

      版權(quán)與免責(zé):以上作品(包括文、圖、音視頻)版權(quán)歸發(fā)布者【肖瀟】所有。本App為發(fā)布者提供信息發(fā)布平臺服務(wù),不代表經(jīng)觀的觀點和構(gòu)成投資等建議

      熱新聞

      電子刊物

      點擊進(jìn)入
      久久精品福利网站免费
      <nav id="4uuuu"></nav>
    • <tr id="4uuuu"></tr>
    • <tr id="4uuuu"></tr>
    • <tfoot id="4uuuu"><dd id="4uuuu"></dd></tfoot>
      • <noscript id="4uuuu"><optgroup id="4uuuu"></optgroup></noscript>