<nav id="4uuuu"></nav>
  • <tr id="4uuuu"></tr>
  • <tr id="4uuuu"></tr>
  • <tfoot id="4uuuu"><dd id="4uuuu"></dd></tfoot>
    • <noscript id="4uuuu"><optgroup id="4uuuu"></optgroup></noscript>

      久久精品福利网站免费,亚洲色大情网站WWW在线观看,久久水蜜桃网国产免费网手机 ,男女性高视频免费观看国内,老色鬼第一页av在线,久久久久精品婷婷

      【首席觀察】AI,想說愛你不容易

      歐陽曉紅2024-06-26 09:50

      經(jīng)濟觀察網(wǎng) 記者 歐陽曉紅 果不其然,離開OpenAI(美國人工智能研究公司)僅一個月后,Ilya Sutskever(伊利亞·蘇茨克弗)就推出了自己的新公司:Safe Superintelligence Inc.(SSI)。

      蘇茨克弗是人工智能領(lǐng)域杰出人物,曾是OpenAI的聯(lián)合創(chuàng)始人。“我正在創(chuàng)辦一家新公司,我們將一心一意追求安全的超級智能,只有一個重點、一個目標和一款產(chǎn)品。”6月19日,他在X(推特)上的一篇推文中寫道。

      AI,想說“愛”你不容易,說偏了是“哀”,說重了是“礙”,不偏不倚才是“愛”。

      斯坦福大學HAI最新的《2024年人工智能指數(shù)報告》(第七版)指出,盡管AI技術(shù)進步迅速,但在負責任AI方面,評估標準和實踐的統(tǒng)一性仍然存在不足。主要開發(fā)者使用不同的負責任AI基準,這使得系統(tǒng)性比較各大AI模型的風險和限制變得困難。

      “技術(shù)領(lǐng)域是一個復(fù)雜事物的王國,這些事物相互作用,創(chuàng)造出新設(shè)備和新類型的設(shè)備。”全球科技領(lǐng)域知名的觀察者凱文·凱利在《失控》中探討了技術(shù)進化的復(fù)雜性和不可預(yù)測性。他認為技術(shù)的發(fā)展類似于生物進化,具有自組織和不可控的特性,這提醒人們在技術(shù)進步中要保持警惕和責任感。

      《2024年人工智能指數(shù)報告》指出,一項關(guān)于負責任的人工智能全球調(diào)查顯示,公司最關(guān)心的人工智能相關(guān)問題包括隱私、安全和可靠性。相關(guān)組織已開始采取措施降低這些風險。然而,在全球范圍內(nèi),大多數(shù)公司迄今為止只降低了其中的一部分風險。

      SSI的設(shè)立旨在解決AI安全性這一“最重要的技術(shù)問題”。它的設(shè)立反映出AI領(lǐng)域?qū)Π踩蛡惱韱栴}的高度關(guān)注。根據(jù)《2024年人工智能指數(shù)報告》,盡管AI技術(shù)進步迅速,但在負責任AI方面,評估標準和實踐的統(tǒng)一性仍然存在不足。

      分析人士認為,SSI由前OpenAI首席科學家蘇茨克弗創(chuàng)立,他在AI領(lǐng)域有著深厚的學術(shù)背景和豐富的經(jīng)驗。此外,與他合作的團隊成員包括前蘋果AI負責人Daniel Gross(丹尼爾·格羅斯)和前OpenAI工程師Daniel Levy(丹尼爾·萊維),這確保了該公司擁有強大的技術(shù)實力和領(lǐng)導(dǎo)力。SSI專注于開發(fā)安全的超智能AI,避免了多線產(chǎn)品開發(fā)的復(fù)雜性和商業(yè)壓力。這種專注或能使公司能夠集中資源和精力,確保在實現(xiàn)安全AI方面取得實質(zhì)性進展。

      此外,SSI強調(diào)透明度,通過公開其研究方法和結(jié)果,促進AI社區(qū)的信任和合作。該公司承諾定期發(fā)布透明的進展報告,并邀請獨立第三方進行審查,這或有助于保持公司的權(quán)威性和可信度。

      不僅如此,SSI積極參與AI領(lǐng)域的標準化工作,與其他公司和研究機構(gòu)合作制定統(tǒng)一的評估標準和基準,這不僅有助于提升該公司在行業(yè)內(nèi)的聲譽,還能推動整個AI領(lǐng)域朝著負責任和安全的方向發(fā)展。

      在資金和獨立運營方面,盡管SSI尚未公開其資金來源,包括注冊資本金額和詳細股東結(jié)構(gòu)等信息,但創(chuàng)始團隊明確表示,他們將選擇性地接受投資,以確保資金來源與公司的長遠安全目標一致。這種獨立運營模式有助于該公司避免短期商業(yè)壓力的干擾;同時,SSI建立嚴格的內(nèi)部審計和外部監(jiān)督機制,確保公司始終遵循其安全和責任承諾,這有助于維持其獨立性和使命的一致性。

      眾所周知,SSI創(chuàng)始人蘇茨克弗在AI學術(shù)界和行業(yè)內(nèi)都有重要貢獻。由亞歷克斯·克里熱夫斯基(Alex Krizhevsky)、蘇茨克弗和杰弗里·辛頓(Geoffrey Hinton)于2012年發(fā)表的題為“ImageNet Classification with Deep Convolutional Neural Networks”的學術(shù)論文,在神經(jīng)網(wǎng)絡(luò)和深度學習領(lǐng)域具有劃時代的意義,被認為是現(xiàn)代深度學習革命的開端之一。有觀點認為,SSI的研究和開發(fā)工作有望繼續(xù)對AI領(lǐng)域產(chǎn)生深遠影響,進一步提升公司的權(quán)威性。

      那么,如何確保超級智能(Superintelligence)與人類價值觀保持一致,又該如何融入人類價值觀?

      通用人工智能(AGI)尚未實現(xiàn),超級智能則更遙遠;但有時候,改變也許只在一念之間。

      盡管蘇茨克弗、格羅斯、萊維等聯(lián)名表示“超級智能觸手可及,構(gòu)建安全超級智能是我們這個時代最重要的技術(shù)問題”。

      他們堅稱SSI是他們的使命、他們的名字和他們的整個產(chǎn)品路線圖,是他們唯一的關(guān)注點。他們的團隊、投資者和商業(yè)模式都致力于實現(xiàn)SSI。同時,他們正在組建一支精干的團隊,由世界上最優(yōu)秀的工程師和研究人員組成,專注于SSI,不做其他任何事情。

      他們說:“如果您是這樣的人,我們將為您提供一個機會,讓您從事畢生的工作,幫助解決我們這個時代最重要的技術(shù)挑戰(zhàn)。現(xiàn)在是時候了。加入我們。”

      無疑,在通往安全超級智能的道路上應(yīng)對各種挑戰(zhàn)是一項復(fù)雜的任務(wù)。它涵蓋跨學科合作、國際標準化等諸多方面。如AI開發(fā)者、倫理學家、社會科學家和法律專家需要緊密合作,以確保技術(shù)的發(fā)展符合倫理和法律標準。此外,我們還需推動全球范圍內(nèi)的標準化,制定統(tǒng)一的AI倫理和安全標準,以規(guī)范超級智能的開發(fā)和應(yīng)用。

      邏輯上,AI開發(fā)過程需將人類的核心價值觀(如公正、隱私、安全等)嵌入算法設(shè)計中,同時確保不同背景和文化的人參與AI開發(fā)和決策過程,以反映廣泛的人類價值觀。

      例如公司內(nèi)部設(shè)立倫理委員會,負責監(jiān)督和指導(dǎo)AI開發(fā)過程中的價值觀融入,以及建立用戶反饋機制,廣泛收集公眾意見,確保AI系統(tǒng)符合社會期望和價值觀。此外是開發(fā)更先進的AI控制和監(jiān)測技術(shù),如可解釋性AI(Explainable AI)和可控性算法(Controllability Algorithms)。

      同時,相關(guān)政策法規(guī)需要完善,以引導(dǎo)AI技術(shù)向安全和可控的方向發(fā)展。例如,AI開發(fā)公司需要遵循一定的安全和倫理標準,并進行合規(guī)檢查。

      據(jù)媒體報道,SSI并非唯一一家追求安全超級智能的公司。多個研究小組和組織都積極參與這項關(guān)鍵任務(wù)。Alphabet(谷歌母公司)的子公司DeepMind也是該領(lǐng)域的領(lǐng)軍企業(yè)。DeepMind的研究重點是構(gòu)建安全且有益的AGI,尤其注重將AI目標與人類價值觀相結(jié)合。

      不過,理想豐滿,現(xiàn)實骨感。

      技術(shù)快速發(fā)展的同時,會不可避免地出現(xiàn)技術(shù)濫用和不道德行為的現(xiàn)象。

      在AI時代初期,一些機構(gòu)和個人教授利用AI技術(shù)“爬蟲”,或以培訓“數(shù)據(jù)分析”為名傳授非法手段,從中牟利。這些行為不僅違反法律,還嚴重損害了個人隱私和信息安全。

      對此,有人建議,政府和相關(guān)機構(gòu)需要進一步完善法律法規(guī),加強對非法技術(shù)培訓和數(shù)據(jù)濫用行為的監(jiān)管。同時,我們應(yīng)該提高公眾意識,通過各種渠道向公眾普及相關(guān)法律知識和防范技術(shù)濫用的措施,以便公眾能夠更好地保護自己的隱私和數(shù)據(jù)安全。此外,行業(yè)需要加強自律和推動技術(shù)的標準化和規(guī)范化,確保技術(shù)開發(fā)和應(yīng)用過程中的倫理和安全問題得到充分重視。

      值此關(guān)鍵過渡期,我們需要平衡技術(shù)進步與倫理責任,通過多方面的努力,確保技術(shù)發(fā)展服務(wù)于社會的長遠利益,而不是被濫用。

      人工智能與經(jīng)濟的融合引發(fā)了許多引人關(guān)注的問題。一些人預(yù)測人工智能將推動生產(chǎn)力的提高,但其影響程度仍不確定。一個主要問題是勞動力大規(guī)模流失的可能性——工作將在多大程度上被自動化或者被人工智能增強?各行各業(yè)的企業(yè)已經(jīng)在以各種方式利用人工智能,但世界一些地區(qū)正見證著對這一變革性技術(shù)的投資流入。此外,投資者的興趣似乎正在轉(zhuǎn)向特定的人工智能子領(lǐng)域,如自然語言處理和數(shù)據(jù)管理。

      益普索的一項調(diào)查顯示,在過去一年中,認為人工智能將在未來三至五年內(nèi)極大地影響他們生活的人數(shù)比例從60%上升至66%。此外,52%的人對人工智能產(chǎn)品和服務(wù)表示不安,這一比例比2022年上升了13個百分點。在美國,有調(diào)研數(shù)據(jù)指出,52%的美國人表示對人工智能的擔憂多于興奮,這一比例比2022年的38% 有所上升。

      不過,重點是“極端的人工智能風險難以分析。”《2024年人工智能指數(shù)報告》指出,在過去的一年里,人工智能學者和從業(yè)者就應(yīng)該關(guān)注算法歧視等直接的模型風險還是潛在的長期生存威脅展開了激烈的爭論。要區(qū)分哪些說法有科學依據(jù)并應(yīng)該為政策制定提供依據(jù)已經(jīng)變得非常困難。與生存威脅的理論性質(zhì)相比,已經(jīng)存在的短期風險具有切實性,這加劇了這一困難。

      同時,《2024年人工智能指數(shù)報告》指出,新推出的基礎(chǔ)模型透明度指數(shù)顯示,人工智能開發(fā)人員缺乏透明度,特別是在訓練數(shù)據(jù)和方法的披露方面。這種缺乏開放性阻礙了進一步了解人工智能系統(tǒng)的穩(wěn)健性和安全性的努力。

      你還記得去年11月的OpenAI“宮斗”嗎?當時的追問是——道德的指南針指向何處?本質(zhì)上,該事件的走向取決于OpenAI首席科學家——蘇茨克弗的最終選擇。

      如果說構(gòu)建SSI是AI時代最重要的技術(shù)問題,那么“如何確保技術(shù)的發(fā)展與社會的倫理和價值觀相一致”則是這個新時代的終極拷問。

      版權(quán)聲明:以上內(nèi)容為《經(jīng)濟觀察報》社原創(chuàng)作品,版權(quán)歸《經(jīng)濟觀察報》社所有。未經(jīng)《經(jīng)濟觀察報》社授權(quán),嚴禁轉(zhuǎn)載或鏡像,否則將依法追究相關(guān)行為主體的法律責任。版權(quán)合作請致電:【010-60910566-1260】。
      經(jīng)濟觀察報首席記者
      長期關(guān)注宏觀經(jīng)濟、金融貨幣市場、保險資管、財富管理等領(lǐng)域。十多年財經(jīng)媒體從業(yè)經(jīng)驗。

      熱新聞

      電子刊物

      點擊進入
      久久精品福利网站免费
      <nav id="4uuuu"></nav>
    • <tr id="4uuuu"></tr>
    • <tr id="4uuuu"></tr>
    • <tfoot id="4uuuu"><dd id="4uuuu"></dd></tfoot>
      • <noscript id="4uuuu"><optgroup id="4uuuu"></optgroup></noscript>