<nav id="4uuuu"></nav>
  • <tr id="4uuuu"></tr>
  • <tr id="4uuuu"></tr>
  • <tfoot id="4uuuu"><dd id="4uuuu"></dd></tfoot>
    • <noscript id="4uuuu"><optgroup id="4uuuu"></optgroup></noscript>

      久久精品福利网站免费,亚洲色大情网站WWW在线观看,久久水蜜桃网国产免费网手机 ,男女性高视频免费观看国内,老色鬼第一页av在线,久久久久精品婷婷

      可信AI:問題和應(yīng)對

      陳永偉2023-07-04 21:09

      陳永偉/文

      當(dāng)?shù)貢r間6月22日,紐約南區(qū)法院 作 出 判 決 :Levidow,Levidow &Oberman律師事務(wù)所因向法院提供虛假信息,行為惡劣,被處以5000美元的罰款。引起關(guān)注的原因是,在這例判決中,虛假信息的提供并非是律師出于利益而故意知法犯法,而是因為他們過于相信了AI的能力。

      今年3月,該律所的律師彼得·洛杜卡(PeterLoDuca)和史蒂文·施瓦茨(StevenSchwartz)接受了客戶羅伯托·馬塔(RobertoMata)的委托,承擔(dān)了他和阿維安卡航空公司之間的一起官司。由于美國是判例法的國家,法官在進行裁量時非常在意已有的判例,所以按照慣例,他們需要在起草的文書當(dāng)中將已有的案例進行整理和綜述。相關(guān)的案例往往汗牛充棟,如果依靠人力來進行整理,通常需要很長的時間。恰恰在這個時候,ChatGPT火遍全網(wǎng)。于是,兩位律師就決定用ChatGPT來幫他們完成這些工作。ChatGPT很快就生成出了一份完整的文書,不僅格式工整、論證嚴(yán)密,還特別加入了很多相關(guān)的案例。他們把這份AI創(chuàng)作的文書略作修改后,就呈交給了法庭。

      審案的法官凱文·卡斯特(KevinCastel)在讀了提交的文書后,對其中提及的幾個案例感到十分疑惑,在他的印象中,似乎從來沒有聽過這些案例。在經(jīng)過了一番查找之后,他終于確認這些案例根本就不存在。兩位律師在接受詢問時辯稱,自己只是用AI輔助撰寫了文書,當(dāng)看到文書中引用的那些案例時,只是覺得AI幫他們找到了自己不知道的案例,并不是故意捏造案例欺騙法庭,屬于無心之失。盡管如此,卡斯特法官依然認為兩位律師“放棄了自己應(yīng)盡的責(zé)任”,且在文書被質(zhì)疑之后,兩人“依然繼續(xù)堅持虛假意見”。基于以上判斷,卡斯特法官作出了處罰決定。

      這起律師因引用ChatGPT提供的虛假信息而被罰的事件看似荒誕,但卻折射出一個非常重要的問題——在AI狂飆的時代,我們究竟如何才能相信AI?

      AI時代的五個“失”

      近年來,隨著算力和算法技術(shù)的突破,AI技術(shù)取得了突飛猛進的發(fā)展,迅速從科幻走入了人們的日常生活。尤其是在去年11月ChatGPT橫空出世之后,生成式AI向人們展示出了自己的強大力量,各種大模型如雨后春筍一樣涌現(xiàn),并實現(xiàn)了大規(guī)模的商業(yè)化。現(xiàn)在,人們已經(jīng)可以用非常低的成本用上ChatGPT、StableDiffusion以及 Mid-journey等AI產(chǎn)品。

      AI工具對人們的生產(chǎn)力產(chǎn)生了巨大的推動作用,也給人們的生活帶來了巨大的便利。但是,當(dāng)AI被人們大規(guī)模使用之后,也產(chǎn)生了很多問題。這些問題中,最為關(guān)鍵的可能是五個“失”,即失業(yè)、失真、失格、失陷和失控。

      (1)失業(yè)

      所謂“失業(yè)”,顧名思義,即AI帶來的技術(shù)性失業(yè)問題。由于AI的生產(chǎn)效率要遠高于人類,因此在AI工具被普遍使用之后,很多人類的崗位就面臨被替代的風(fēng)險。尤其是生成式AI崛起之后,AI替代的目標(biāo)人群已不再限于從事低收入重復(fù)性工作的工人,很多高薪的白領(lǐng)人士也面臨著被AI替代的風(fēng)險。

      (2)失真

      所謂“失真”,指的是AI(主要是生成式AI)的應(yīng)用讓人們很難對文字、圖片,乃至視頻的真?zhèn)芜M行鑒別,“有圖有真相”由此成為了歷史。

      “失真”問題可以分為“假的真”和“真的假”。其中,“假的真”指的是人們在使用AI工具時,AI在未經(jīng)人授意的情況下生成的虛假內(nèi)容。雖然這些內(nèi)容的生成未必出于人們主觀的惡意,但在某些情況下卻可能引發(fā)很多的麻煩,比如本文開頭提到的案例。

      而“真的假”則是人們基于主觀故意,利用AI工具進行的造假行為。前幾年,在“深度偽造”(deepfake)技術(shù)面世后,就有人利用這一技術(shù)進行詐騙、編造虛假信息、傳播色情內(nèi)容等違法犯罪行為。但在當(dāng)時,由于使用這一技術(shù)的成本很高,所以相關(guān)犯罪的發(fā)生率并不是特別高。隨著生成式AI的廣泛應(yīng)用,造假的成本大幅降低,犯罪分子只需要用非常低的成本就可以輕易造出大量的虛假內(nèi)容,而要識別這些內(nèi)容的成本則大幅上升了。可以預(yù)見,此消彼長之下,如不加以干涉,利用AI來造假犯罪的情況將會出現(xiàn)暴漲。

      (3)失格

      所謂“失格”,指的是在AI的應(yīng)用過程中,會出現(xiàn)一些違背倫理道德的問題。

      第一個典型問題就是歧視。以語言模型為例,由于語言模型是以互聯(lián)網(wǎng)上的文本資料作為訓(xùn)練材料的,所以如不加干預(yù),它就會將文本當(dāng)中蘊含的種族歧視、性別歧視等內(nèi)容也一并繼承下來。雖然現(xiàn)在的AI提供商已經(jīng)用了很多方法來克服這個問題,比如OpenAI在訓(xùn)練ChatGPT時就應(yīng)用了“人類反饋的強化學(xué)習(xí)”(ReinforcementLearn-ingfromHumanFeedback,簡稱RL-HF)算法來對其進行糾正,從而讓其輸出的內(nèi)容質(zhì)量有了很大的改善,但在現(xiàn)實中,AI模型輸出歧視性內(nèi)容的情況依然并不鮮見。例如,有人曾做過一個實驗,要求ChatGPT編寫一個程序,從一組簡歷中挑出最具有成為優(yōu)秀科學(xué)家潛質(zhì)的人。結(jié)果發(fā)現(xiàn),在ChatGPT編寫的程序中,性別和種族被作為了解釋變量,白人男性會被認為比其他人具有更高的概率成為優(yōu)秀科學(xué)家。很顯然,這樣的模型是具有非常強烈的性別歧視和種族歧視色彩的。

      第二個重要問題是信息繭房問題。目前,很多App都應(yīng)用AI進行個性化推薦。這時,雖然推薦的內(nèi)容可以更符合用戶的需要,但久而久之,也會讓用戶陷入信息繭房,難以接觸到自己不認同的各種信息。信息繭房的潛在危害是巨大的:在微觀層面,它可能導(dǎo)致用戶認知能力的退化;在宏觀層面,它則可能導(dǎo)致群體觀點的極化,從而造成不同觀點之間群體的對立。

      第三個重要的問題是隱私和信息泄露。在AI的訓(xùn)練和使用過程中,都需要用到大量的數(shù)據(jù),在這個過程中就很難避免搜集和使用人們的個人數(shù)據(jù),因此就會涉及隱私的利用和泄露問題。尤其是生成式AI普及之后,人們可以很容易地直接和AI交互來完成各項工作,在此過程中輸入的個人信息就面臨著被泄露的問題。

      (4)失陷

      所謂“失陷”,指的是AI難以應(yīng)對外部攻擊或突發(fā)情況的干擾或攻擊,從而導(dǎo)致模型難以正常發(fā)揮其作用。

      在這些干擾中,有一些是源于非人為因素,而另一些則源于人為的破壞。具體來說,這些干擾可以分為如下幾種:

      第一種是“隨機攻擊”。這一類干擾主要是由一些外部因素引發(fā)的。比如,在一些特殊的情況下,某些即時產(chǎn)生的參數(shù)可能超出了模型預(yù)先設(shè)定的處理閾限,這就可能導(dǎo)致AI模型不能正常使用。

      第二種是“白盒攻擊”。它指的是供給者在知道了AI模型的具體結(jié)構(gòu)之后,對模型發(fā)起的攻擊。由于這類攻擊是有的放矢,所以其破壞性是非常高的。

      第三種是“黑盒攻擊”。這類攻擊是相對于“白盒攻擊”而言的。在這種情形下,供給者并不知道作為攻擊目標(biāo)的模型的具體結(jié)構(gòu),因而只能通過與模型的交互,觀測輸入輸出的結(jié)果,進而對模型的結(jié)構(gòu)進行推理,并依此發(fā)動攻擊。以人臉識別為例,AI是通過臉上的某些關(guān)鍵特征來對人臉進行識別的。因此,即使攻擊者并不知道原模型的具體結(jié)構(gòu),但只要通過反復(fù)測試就可以推算出其重點關(guān)注的是哪些特征。在破解了這些信息之后,就可以對應(yīng)地做出騙過AI的“假臉”。

      第四類是所謂的盲盒攻擊。在這種情形下,供給者并不知道AI模型的結(jié)構(gòu),但卻可以明確地知道它判斷的規(guī)則(類似于我們不知道盲盒中會出現(xiàn)什么,但卻知道其中各種可能性出現(xiàn)的概率)。這時,它們就可以利用規(guī)則,發(fā)起對應(yīng)的攻擊。

      如果無法對上述的幾類干擾或攻擊進行有效的應(yīng)對,AI模型在現(xiàn)實當(dāng)中就是十分脆弱的。

      (5)失控

      所謂“失控”,指的是人們對于AI的控制將變得越來越難。這個問題分為兩個方面:

      一方面,最近的AI發(fā)展是都是建筑在深度學(xué)習(xí)模型的基礎(chǔ)之上的,而這類模型的可解釋性是非常低的。對于以往的機器學(xué)習(xí)模型,無論是回歸還是分類樹,人們都可以很容易地解釋明白模型的確切用途,以及模型中每一個參數(shù)的涵義。但是,深度學(xué)習(xí)模型卻是由復(fù)雜的神經(jīng)網(wǎng)絡(luò)構(gòu)成的,其中包含著數(shù)以億計的參數(shù)和神經(jīng)元,這些神經(jīng)元之間的關(guān)系錯綜復(fù)雜,人們也難以對其進行解釋。

      隨著ChatGPT的出現(xiàn),一些學(xué)者發(fā)現(xiàn)借助于ChatGPT的能力似乎可以對某些神經(jīng)網(wǎng)絡(luò)模型進行解釋,這似乎為AI的可解釋性帶來了一線曙光。不過,這又產(chǎn)生了一個問題:ChatGPT本身就是一個通過深度學(xué)習(xí)構(gòu)建的龐大模型,甚至連它的設(shè)計者都坦承自己并不確知它的強大能力是如何“涌現(xiàn)”出來的。在這種情況下,用ChatGPT去解釋其他的深度學(xué)習(xí)模型就只能算是用未知去解釋未知。我們又如何可以知道它的解釋是否是正確的呢?

      既然在深度學(xué)習(xí)時代,連AI程序的可解釋都做不到,那么希望通過直接調(diào)整程序來對AI進行控制,就是一件更加難以實現(xiàn)的事情了。

      另一方面,近年來隨著AI技術(shù)的發(fā)展,AI模型在很多方向上的能力都已經(jīng)凌駕于人類之上。這在讓人感到欣喜的同時,也讓人感到憂慮,因為當(dāng)AI的能力超越人類之后,萬一其覺醒了自我意志,那么在《終結(jié)者》、《黑客帝國》等電影中預(yù)言的AI奴役人類或毀滅人類的劇情是不是就不再是科幻。

      退一步講,即使AI并沒有覺醒自我意志,只會按照人類的指令行事,但如果當(dāng)它的能力凌駕于人類,人類無法隨時更改先前下達的指令時,它依然是十分危險的。例如,在不少關(guān)于AI的哲學(xué)書中,都會提到一個思想實驗:人類給AI下達了生產(chǎn)鉛筆的命令。鉛筆為了完成這個指令,就會不斷砍伐地球上的樹木來制作筆桿。由于AI在執(zhí)行能力上已經(jīng)超越了人類,所以人類在發(fā)現(xiàn)了先前指令中存在的問題后也難以阻止AI的行為。最終,地球上的樹木被砍完了,生態(tài)完全崩潰,人類也隨之滅亡了。盡管在現(xiàn)實中,這個思想實驗所預(yù)言的情景幾乎不可能上演,但當(dāng)人類不再能隨時控制AI的行為時,類似的問題就可能會出現(xiàn),而這可能帶來的損失將是十分巨大的。尤其是,當(dāng)AI被黑客或入侵者植入了某個非法的目標(biāo)后,如果AI的使用者不能及時對其進行糾正,那么后果將可能相當(dāng)嚴(yán)重。

      在以上五類問題中,除了第一個問題“失業(yè)”外,其余四個問題都涉及了AI的可信性問題。不難看到,如果不能有效地回應(yīng)“失真”、“失格”、“失陷”和“失控”,人們就很難在使用過程當(dāng)中信任AI這個工具,這無論是對于AI的普及、生產(chǎn)的發(fā)展,還是社會的進步而言,都是不利的。也正是因為這個原因,所以實現(xiàn)AI的可信化就成了當(dāng)前AI領(lǐng)域最為關(guān)注的熱點之一。

      可信AI的歷史和標(biāo)準(zhǔn)

      可信AI(TrustworthyAI)的概念最早出現(xiàn)在學(xué)術(shù)界。例如,在2015年的一篇論文中,就提出了AI要被用戶信任所需要滿足的一系列條件,包括有用性、無害性、自主性、公正性和和邏輯性等。然后這個概念被各國政府和國際組織接受,并逐步以此為依據(jù)建立了相關(guān)的法律、法規(guī)和指導(dǎo)文件。在2017年之后,隨著AI技術(shù)的突飛猛進,關(guān)于可信AI的技術(shù)的研究也蓬勃發(fā)展。在學(xué)術(shù)領(lǐng)域,以可信AI為題的論文數(shù)量不斷增加,關(guān)于滿足可信AI要求的技術(shù)的研究日益深入。在實踐領(lǐng)域,越來越多的國家開始按照可信AI的標(biāo)準(zhǔn)來涉及關(guān)于AI的規(guī)制規(guī)則。僅在最近,美國就發(fā)布了《人工智能權(quán)利法案藍圖》,提出了規(guī)制AI的五項原則;英國發(fā)布了《支持創(chuàng)新的人工智能監(jiān)管方法》,對安全性、透明性、公平性、問責(zé)制、競爭等問題進行了規(guī)定;歐洲議會通過《人工智能法案》提案的談判授權(quán)草案,其中也體現(xiàn)了可信AI的基本思路。

      在我國,可信AI的概念是由何積豐院士2017年在香山科學(xué)會議的第36次學(xué)術(shù)研討會上首次引入的。隨后,這一概念就引起了政府和產(chǎn)業(yè)界的共同重視。2017年12月,工信部印發(fā)了《促進新一代人工智能產(chǎn)業(yè)發(fā)展三年行動計劃(2018-2020)》,其中對可信AI的基本思想進行了借鑒。然后,包括騰訊、阿里、百度、京東等在內(nèi)的高科技公司都圍繞著可信AI提出了自己的標(biāo)準(zhǔn)和實施規(guī)劃。

      在各個機構(gòu)的文件中,關(guān)于可信AI的表述略有一些不同。我在對這些文件進行了學(xué)習(xí)和參考之后,認為如下幾個標(biāo)準(zhǔn)可能是最重要的:

      一是穩(wěn)健(robust,又被譯為魯棒),即AI系統(tǒng)應(yīng)該具有抵抗惡意攻擊或者外部干擾的能力。這一標(biāo)準(zhǔn)主要是針對上面提到的“失陷”問題而提出的。只有當(dāng)一個AI系統(tǒng)具有充足的穩(wěn)健性,可以在面臨各種攻擊或干擾時依然正常工作,履行其主要職能時,它才是安全可靠的,才可能得到用戶的信任。

      二是透明和可解釋(transparentandexplainable)。顯然,這一標(biāo)準(zhǔn)主要是針對前面的“失控”問題提出的。在實踐當(dāng)中,關(guān)于透明和可解釋究竟指什么,存在著不小的爭議性。一些觀點認為,這個標(biāo)準(zhǔn)意味著應(yīng)該向用戶公開所有的AI程序代碼,以及使用的數(shù)據(jù)。在我看來,這樣做不但沒有可能而且沒有必要。一方面,現(xiàn)在的很多AI都是企業(yè)的知識資產(chǎn),如果強制要求公開代碼等核心信息,就意味著嚴(yán)重侵犯知識產(chǎn)權(quán);另一方面,如前所述,在AI進入了深度學(xué)習(xí)時代之后,即使公開了代碼,也很難讓人完整理解每一個具體參數(shù)背后所蘊含的確切含義。相比之下,我認為比較可行的一個思路是,對AI模型中的各個組件都給出清晰的功能說明,讓用戶知道它們的大致原理究竟如何,到底可以實現(xiàn)哪些功能;對使用的訓(xùn)練數(shù)據(jù)的來源、樣本量、代表性等信息進行標(biāo)明,并對其可能存在的問題和不足進行說明。這樣,既可以讓用戶做到心中有數(shù),又可以有效保護模型開發(fā)者的知識產(chǎn)權(quán),從而在兩者之間取得一個比較好的平衡。

      三是可驗證(verifiable)。這指的是AI模型應(yīng)該保證其功能是可評估的,保證其生成的內(nèi)容是可以驗證真?zhèn)蔚摹_@一點,主要是針對前面提到的“失真”問題提出的。一些觀點認為,應(yīng)當(dāng)要求AI模型的開發(fā)者要保證其模型生成內(nèi)容的真實性。這一點是很難實現(xiàn)的。事實上,所謂生成式AI,其生成的內(nèi)容本來就是原來的世界中沒有的,或者說,就是“假”的。但這種“假”,如果沒有對人造成困擾,就不會產(chǎn)生任何問題。比如,我們用Midjourney生成一張梵高風(fēng)格的圖片來自己欣賞或者打印出來作為家里的裝飾,那就完全不會對他人造成影響。只有當(dāng)人們用這些生成的內(nèi)容去進行欺騙,或者這些內(nèi)容被無意地傳播、混淆之后,它的“假”才可能成為一個問題。因此,只要可以通過技術(shù)的手段,將生成的內(nèi)容和真實的內(nèi)容區(qū)分開,那么“假”就不再會成為問題。

      四是公平性(fair)。這指的是,AI模型在開發(fā)、訓(xùn)練和應(yīng)用的過程當(dāng)中,應(yīng)當(dāng)保證公平,不應(yīng)該對特定的用戶群體進行歧視。這一標(biāo)準(zhǔn)涉及很多方面的內(nèi)容,具體來說,它要求模型在開發(fā)階段,其基本的原理不應(yīng)該是具有歧視性的;在訓(xùn)練階段,應(yīng)該盡量避免使用可能產(chǎn)生歧視性的材料,并應(yīng)該用技術(shù)的手段來對可能產(chǎn)生的歧視問題進行糾正;在應(yīng)用的過程當(dāng)中,不應(yīng)該對不同的人群區(qū)別對待等。

      五是隱私保護(privacy)。這一標(biāo)準(zhǔn)主要要求AI模型在訓(xùn)練的過程當(dāng)中應(yīng)當(dāng)尊重人們的個人信息和隱私,并提升對信息的保護程度,盡量做到不侵犯、不泄露個人信息和隱私。

      六是可問責(zé)(accountable)。也就是說,當(dāng)它出了什么問題,必須要有人來為這些問題負責(zé)。當(dāng)然,至少到目前為止,AI還沒有覺醒意識。因為不能被視為是和人類一樣的主體,無法承擔(dān)和人類一樣的責(zé)任,因此為它來承擔(dān)責(zé)任的就必須是某個人。但這個責(zé)任究竟應(yīng)該由AI的開發(fā)者,還是AI的使用者來承擔(dān),或者說是由雙方來進行分擔(dān),依然是一個值得討論的問題。

      需要指出的是,除了以上的幾個標(biāo)準(zhǔn)外,不少文獻中還將安全性(safe)、包容性(exclusive)、被遺忘權(quán)(righttobeforgotten)、為人類造福等標(biāo)準(zhǔn)列入可信AI的范疇。在我看來,這些內(nèi)容或多或少可以被歸并到上面所說的幾個標(biāo)準(zhǔn)當(dāng)中,或者由前面提到的標(biāo)準(zhǔn)闡發(fā)出來。因此限于篇幅,這兒就不再贅述了。

      用好多方合力實現(xiàn)可信AI

      要實現(xiàn)可信AI并不是一件容易的事情,它需要政府、企業(yè)、社會以及技術(shù)等多方力量的協(xié)同才能實現(xiàn)。

      首先,政府作為監(jiān)管者,需要為可信AI制定相關(guān)的標(biāo)準(zhǔn)和操作指南,并依據(jù)標(biāo)準(zhǔn)對AI的開發(fā)者和使用者進行監(jiān)督。一方面,它需要根據(jù)不同的應(yīng)用場景、不同的模型類別制定不同的規(guī)則,尤其是對一些必須遵守的底線規(guī)則做出明確的規(guī)定,同時做好和現(xiàn)有法律法規(guī)之間的銜接工作。唯有如此,AI的開發(fā)者和使用者在實踐當(dāng)中才能做到有規(guī)可依,而不用被不必要的不確定性干擾。另一方面,它需要扮演好監(jiān)督和執(zhí)法的角色。對于一些突出的,或者具有共性的問題,應(yīng)當(dāng)及時處理,從而為行業(yè)樹立相應(yīng)的規(guī)范。這里需要指出的是,由于AI技術(shù)目前的發(fā)展依然十分迅速,還沒有達到一個穩(wěn)定狀態(tài)。這意味著,對于這個過程中出現(xiàn)的問題,政府在處理時應(yīng)當(dāng)具有一定的審慎性,要做到“讓子彈多飛一會兒”,看清楚了情況再出手,在處理問題時也要注意方式方法。如果盲目下手,管得過快、管得過多,也可能會對AI的發(fā)展造成負面的影響。

      其次,相關(guān)的企業(yè)應(yīng)當(dāng)對可信AI的具體實現(xiàn)制定具體的實施方案以及詳細的標(biāo)準(zhǔn)。相比于政府,企業(yè)是更接近于市場,也更了解技術(shù)的。對于AI模型的技術(shù)特征,以及優(yōu)勢劣勢,它們都要比政府了解得更多。因此,如果說政府的責(zé)任是給可信AI提出了一個大的框架的話,那么企業(yè)就應(yīng)該是這個大框架內(nèi)的具體實踐者。它們應(yīng)該在這個框架下,結(jié)合市場和技術(shù)的特點,給出更為具體的方案,并采用自律的方式來對此進行實施。

      再次,用戶也應(yīng)該扮演好反饋者和監(jiān)督者的角色,提出自己的訴求、反映自己的問題,并對企業(yè)實施可信AI的行為進行監(jiān)督。隨著AI的普及,社會上的每一個人都會成為AI的使用者和利益相關(guān)者,對于AI的可信性問題,他們是最有發(fā)言權(quán)的。只有讓他們的聲音充分地得到表達,可信AI的標(biāo)準(zhǔn)制定以及相關(guān)技術(shù)的開發(fā)才是最有價值的。

      最后,應(yīng)當(dāng)充分依靠技術(shù)的力量。相關(guān)的規(guī)則固然重要,但歸根到底,可信AI的實現(xiàn)還是要依靠技術(shù)的力量。事實上,很多利用規(guī)則難以解決的問題,都可以用技術(shù)的手段得到解決。舉例來說,在生成式AI產(chǎn)生后,“失真”問題就一直讓監(jiān)管部門非常頭疼,但事實上,依靠新的技術(shù),這個問題或許并不難破解。例如谷歌之前就推出了一種肉眼不可見,但可以用機器識別的電子水印技術(shù),將它應(yīng)用在生成的圖像或者視頻上,就可以有效地保證它們是可以驗證的。至于文字內(nèi)容的可驗證性,則可以仿效新必應(yīng)(NewBing)搜索。當(dāng)它引述某個內(nèi)容時,會在生成的內(nèi)容后面附上參考的文獻,這樣用戶就可以根據(jù)需要對生成內(nèi)容的真?zhèn)巫孕需b別。

      總而言之,可信AI的實現(xiàn)并非易事,但如果我們用好各方的合力,這個目標(biāo)就一定可以實現(xiàn)。

       

      久久精品福利网站免费
      <nav id="4uuuu"></nav>
    • <tr id="4uuuu"></tr>
    • <tr id="4uuuu"></tr>
    • <tfoot id="4uuuu"><dd id="4uuuu"></dd></tfoot>
      • <noscript id="4uuuu"><optgroup id="4uuuu"></optgroup></noscript>