<nav id="4uuuu"></nav>
  • <tr id="4uuuu"></tr>
  • <tr id="4uuuu"></tr>
  • <tfoot id="4uuuu"><dd id="4uuuu"></dd></tfoot>
    • <noscript id="4uuuu"><optgroup id="4uuuu"></optgroup></noscript>

      久久精品福利网站免费,亚洲色大情网站WWW在线观看,久久水蜜桃网国产免费网手机 ,男女性高视频免费观看国内,老色鬼第一页av在线,久久久久精品婷婷

      瑞萊智慧CEO田天:沒有安全可控為前提 大模型無法落地應用

      李明明2024-10-02 09:00

      近期,韓國曝出“Deepfake”(深度偽造技術(shù))事件,被認為是采用新犯罪手段的“N號房”案件重現(xiàn)。隨著AI在大模型等技術(shù)的帶動下向深度應用方向邁進,AI帶來的數(shù)據(jù)泄露、“AI換臉”等安全問題愈發(fā)嚴峻,相關(guān)的AI詐騙案件頻發(fā),正給社會帶來巨大挑戰(zhàn)。

      早在AI安全問題引起廣泛重視之前,瑞萊智慧就已深耕這一領(lǐng)域,聚焦人工智能安全和垂類大模型應用,通過構(gòu)建大模型安全基座、AI偽造內(nèi)容檢測基座等,實現(xiàn)對AI大模型研發(fā)部署和應用治理環(huán)節(jié)全覆蓋,建立了包括基礎(chǔ)算法平臺層、底層資源層、應用層的全方位AI安全體系。

      作為清華系深耕中國人工智能領(lǐng)域的創(chuàng)業(yè)企業(yè)之一,瑞萊智慧由中國科學院院士、人工智能研究院名譽院長張鈸和清華大學人工智能研究院副院長、計算機系教授朱軍共同擔任首席科學家,清華大學計算機系博士田天出任首席執(zhí)行官,其也是瑞萊智慧的創(chuàng)始人。

      在人工智能時代,如何守護我們的信息安全?《科創(chuàng)板日報》記者就此專訪了田天,他表示,只有提供更加安全可控的AI才能夠更快速地把AI賦能千行百業(yè),特別是嚴肅場景(比如to B)。如果沒有安全可控為前提,大模型就無法落地和應用,這是零和一的問題,有了安全可控,才有可能去實現(xiàn)應用。

      提供安全可控的AI 將AI賦能千行百業(yè)

      《科創(chuàng)板日報》:作為一家初創(chuàng)企業(yè),為何選擇AI安全領(lǐng)域入局?

      田天:這個問題其實就是創(chuàng)立初衷。瑞萊智慧2018年成立,目標就是要去做更加安全可控的第三代人工智能的落地,讓人工智能真正應用起來,能夠發(fā)揮作用和價值。

      在公司成立之前,我們團隊也在清華大學里進行相關(guān)技術(shù)研究,并于2018年發(fā)現(xiàn),盡管AI在很多場景、領(lǐng)域的發(fā)展已經(jīng)很火熱,但還不能迅速落地,因為還缺乏一個非常重要的環(huán)節(jié),即AI的安全可控問題尚未解決,而只有提供更加安全可控的AI才能夠更快速的把AI賦能千行百業(yè),特別是嚴肅場景(比如to B)。

      所以公司產(chǎn)品包括兩大類。一類是安全本身,即給AI產(chǎn)品做安全增強,提供AI安全增強模塊和完整的AI解決方案,幫助客戶實現(xiàn)AI技術(shù)的應用與價值。特別是在這兩年大模型安全需求越來越多之后,我們可以給客戶提供更加安全可控的大模型整體行業(yè)落地解決方案。

      另一方面是利用AI去提升生產(chǎn)力,即相關(guān)領(lǐng)域的AI落地、提升和改善其工作效率等。其實從成立伊始公司就在做這些工作,比如一直在做的金融領(lǐng)域、政府和社會治理相關(guān)行業(yè)、工業(yè)制造領(lǐng)域等。

      《科創(chuàng)板日報》:相比已經(jīng)深耕數(shù)年的同行們,比如奇安信、啟明星辰、綠盟科技、安恒信息等,瑞萊智慧有何競爭優(yōu)勢?

      田天:傳統(tǒng)網(wǎng)安公司不太可能提供一個很強大的AI系統(tǒng)并解決AI安全問題。本質(zhì)上真正的AI公司是關(guān)注如何構(gòu)建一個更加可控、更加安全的AI系統(tǒng),其和互聯(lián)網(wǎng)安全、數(shù)據(jù)安全是完全不同的領(lǐng)域。

      隨著人工智能技術(shù)的發(fā)展,越來越多的企業(yè)開始關(guān)注AI安全,并試圖將AI技術(shù)應用于網(wǎng)絡(luò)安全領(lǐng)域。一方面,網(wǎng)安企業(yè)通過引入AI技術(shù)來增強自身的競爭力;另一方面,專門從事人工智能開發(fā)的公司也在積極探索AI安全。在這一過程中,擁有強大AI能力和專業(yè)知識的團隊成為競爭的關(guān)鍵。

      在AI安全可控領(lǐng)域市場方面,我們還是較為領(lǐng)先的,并占了絕大多數(shù)份額。目前,客戶構(gòu)成方面包括幾百家的大型企業(yè)(包括央國企互聯(lián)網(wǎng)公司)、政府客戶、金融機構(gòu)等。

      隨著AIGC技術(shù)發(fā)展,將來AI合成假內(nèi)容的比例會越來越高

      《科創(chuàng)板日報》:在產(chǎn)品開發(fā)中,你和團隊遇到比較大的困難是什么?如何去解決困難?

      田天:困難還是在于AI安全可控領(lǐng)域發(fā)展的太快,并充斥著大量的技術(shù)迭代。目前主要面臨兩個問題。一方面,我們研發(fā)一個能力更強的AI安全系統(tǒng),需要進行持續(xù)的投入,特別是在大模型日新月異的時代,如何跟上模型能力發(fā)展,并處于AI大模型安全行業(yè)的最前沿,這是一個難點;

      另外一方面,最新的AI技術(shù)也會帶來很多更高層次的安全問題。此前,AI還比較弱,或者應用范圍還比較窄的時候,其安全問題不太嚴重。而隨著AI能力越來越強,應用越來越廣,其引起的安全問題類型也會越來越多,同時造成的風險隱患也會越來越大。因此,我們也要持續(xù)投入關(guān)注和研發(fā)。

      此外,對于AI惡意應用,我們一直在持續(xù)跟進,會去做相關(guān)情報搜集,并在支持客戶的過程中積累了很多經(jīng)驗。甚至還會預演一下,比如模擬黑客,并先于實際黑客之前掌握攻擊方式,以便更早的做好防御準備。

      《科創(chuàng)板日報》:Sora等文生視頻的出現(xiàn)給AI視頻檢測帶來了更大的不確定性,帶出了“真的假視頻”(AI生成視頻),“假的假視頻”(真人擺拍冒充Sora生成視頻)等現(xiàn)象,具體應該如何防范?

      田天:AI合成視頻挑戰(zhàn)了人們之前眼見為實的常識,而且隨著AIGC技術(shù)發(fā)展,將來AI合成假內(nèi)容的比例會越來越高,覆蓋面也會越來越廣。甚至很快在互聯(lián)網(wǎng)上的信息中,AI合成的假內(nèi)容可能比真實產(chǎn)生的還要多,這也是未來的趨勢,所以這個問題首先很嚴重。

      對此,需要從技術(shù)和用戶兩方面共同努力:一方面,AIGC技術(shù)和產(chǎn)品的供應商要去加強治理。通過技術(shù)手段如內(nèi)容水印和平臺標識來標明信息的真實性;另一方面,提升用戶的辨識能力,使他們能夠自主判斷所見信息的真實性。比如,我們面向個人用戶的AIGC實時檢測產(chǎn)品RealBelieve,能幫助用戶鑒別通話或網(wǎng)絡(luò)視頻中的人臉真?zhèn)危部稍谟脩魹g覽網(wǎng)頁內(nèi)容時提供AI合成可能性提示。

      《科創(chuàng)板日報》:當前大模型在哪些場景下更容易發(fā)揮作用,并面臨什么挑戰(zhàn)?

      田天:大模型最適合的是內(nèi)容生產(chǎn)與創(chuàng)新類場景,但對于嚴肅場景(如生產(chǎn)力提升或決策分析)由于可控性不足而不受歡迎。由于模型頻繁出現(xiàn)錯誤或不可靠的結(jié)果,導致它們無法被放心地融入到工作流程中去進行自動化操作。

      我認為未來AI特別是大模型最終會在各個行業(yè)中實現(xiàn)落地應用,雖然目前AI落地仍存在許多問題,但這是一個大趨勢。然而,盡管現(xiàn)階段非常熱門,但大模型在實際業(yè)務(wù)場景中使用的案例相對較少。例如,在媒體行業(yè)中,實際應用的案例并不多見。

      因此,公司正致力于實現(xiàn)更安全可控的大模型系統(tǒng),使其能在不同行業(yè)中真正落地并有效使用,并已在政府、央企等多個標桿項目中取得成果。

      《科創(chuàng)板日報》: 安全可控的大模型能否應對一些特殊或敏感問題,例如涉及政治、法律合規(guī)、倫理等領(lǐng)域?

      田天:我們的模型通過設(shè)計和開發(fā),能夠有效應對有意破壞或提出超常規(guī)交互的人。我們致力于在限定制度范圍內(nèi)工作,保證模型的安全可控。

      此外,超級智能安全將是未來的關(guān)鍵問題,這在國內(nèi)外均處于起步階段,公司已在該領(lǐng)域投入更多資源,緊跟技術(shù)進展。同時,隨著人工智能升級,安全威脅增大,公司也將持續(xù)提高安全領(lǐng)域的投入比例。

      目前產(chǎn)品已助力金融、政務(wù)、自動駕駛等領(lǐng)域

      《科創(chuàng)板日報》:中國銀行行長李禮輝表示,從金融領(lǐng)域來看,現(xiàn)在主要的問題是AI算法和模型仍然不夠清晰和透明,有待解決技術(shù)方面的缺陷。如果把不太成熟的人工智能技術(shù)投入到高風險的金融領(lǐng)域,可能會放大現(xiàn)有風險,并產(chǎn)生新的風險。您怎么看?

      田天:對此,我是很贊同的。如果說我們對現(xiàn)有的AI系統(tǒng)風險沒有足夠的認識,就貿(mào)然將其用在一些相對敏感嚴肅的場景,很有可能會造成比較嚴重的后果。所以我建議相應的AI系統(tǒng)必須足夠安全,或者對其安全能力有足夠認識,再去應用到適合的場景里,以避免放大現(xiàn)有風險或產(chǎn)生新的風險。

      《科創(chuàng)板日報》:能否介紹一些具體的金融安全方面的案例?

      田天:當下大家會通過手機銀行或者一些線上的方式刷臉,以便去驗證身份。但由于現(xiàn)在AIGC能力很強,網(wǎng)上相關(guān)方可以合成一個人臉,使其做張嘴、眨眼、搖頭等動作,然后通過高清屏或者直接注入的方式,欺騙身份核驗系統(tǒng),這也帶來了很大的風險。我們的其中一款產(chǎn)品人臉AI安全防火墻RealGuard,能夠有效檢測這種AI合成的人臉,作為現(xiàn)有系統(tǒng)的補充。

      目前銀行客戶群體涵蓋了諸多頭部銀行,如郵儲、交行等。由于涉及客戶隱私,我們無法透露具體的減小了多少安全概率的數(shù)據(jù)。但可以根據(jù)實際效果來說,產(chǎn)品確實幫助客戶防御了大量的攻擊。

      《科創(chuàng)板日報》:除了金融領(lǐng)域,公司在大模型應用上有哪些典型案例及主要聚焦點?與其他專注政務(wù)、金融等領(lǐng)域的同行相比,貴公司在大模型應用上的獨特之處在哪里?

      田天:公司在政務(wù)領(lǐng)域有眾多成功案例,例如去年為北京市政府打造了政策大模型并在相關(guān)比賽中獲得第一名。此外,還在工程管理、工業(yè)生產(chǎn)、金融等領(lǐng)域開展深度探索,但大模型主要是作為現(xiàn)有工作流的改造升級和輔助改善工具,而非完全替代人類勞動力。公司的獨特之處在于提供的能力更加安全可控,這對許多領(lǐng)域的從業(yè)者來說是不具備的,同時注重提升行業(yè)原有工作流程中基于AI的新能力和應用場景。例如,在政策比較中,利用大模型可高效準確地對比不同地區(qū)政策間的異同,這是傳統(tǒng)方式難以實現(xiàn)的。

      此外,我們還專注于研發(fā)自動駕駛領(lǐng)域的對抗攻防技術(shù),并已成功開發(fā)出相應產(chǎn)品。并在多家車企和自動駕駛公司的研發(fā)階段進行了應用,并取得了一定的成功率,能有效防止商用系統(tǒng)在實際運行中遭遇重大故障。

      值得一提的是,如果沒有安全可控為前提,大模型就完全無法落地,從而無法應用,這是零和一的問題,有了安全可控,才有可能實現(xiàn)大模型的應用。

      轉(zhuǎn)載來源:科創(chuàng)板日報 作者:李明明

      版權(quán)與免責:以上作品(包括文、圖、音視頻)版權(quán)歸發(fā)布者【李明明】所有。本App為發(fā)布者提供信息發(fā)布平臺服務(wù),不代表經(jīng)觀的觀點和構(gòu)成投資等建議
      久久精品福利网站免费
      <nav id="4uuuu"></nav>
    • <tr id="4uuuu"></tr>
    • <tr id="4uuuu"></tr>
    • <tfoot id="4uuuu"><dd id="4uuuu"></dd></tfoot>
      • <noscript id="4uuuu"><optgroup id="4uuuu"></optgroup></noscript>