<nav id="4uuuu"></nav>
  • <tr id="4uuuu"></tr>
  • <tr id="4uuuu"></tr>
  • <tfoot id="4uuuu"><dd id="4uuuu"></dd></tfoot>
    • <noscript id="4uuuu"><optgroup id="4uuuu"></optgroup></noscript>

      久久精品福利网站免费,亚洲色大情网站WWW在线观看,久久水蜜桃网国产免费网手机 ,男女性高视频免费观看国内,老色鬼第一页av在线,久久久久精品婷婷

      日本AI大敗局的啟示

      陳永偉2024-05-21 15:23

      陳永偉/文 作為世界重要經(jīng)濟(jì)體之一的日本,在目前這輪各國競相參與的AI革命當(dāng)中幾乎是悄無聲息。我們基本看不到來自日本的AI模型——不僅是基礎(chǔ)大模型,就連應(yīng)用層的模型也很少。Open-Calm、Rinna等模型都是在日本AI業(yè)內(nèi)名列前茅的模型,但它們在評測中的表現(xiàn)甚至要遠(yuǎn)遜于OpenAI(開放人工智能公司)已經(jīng)過時的模型GPT-3.5。與之對應(yīng)地,日本似乎也沒有什么著名的AI企業(yè),既無巨頭,也無特別出色的初創(chuàng)企業(yè)。這充分說明,日本確實在這一輪的AI革命中被其他的經(jīng)濟(jì)體遠(yuǎn)遠(yuǎn)拋在了身后。

      事實上,日本在AI的發(fā)展史上很長時間內(nèi)都是一股舉足輕重的力量。早在二十世紀(jì)六七十年代,日本就已經(jīng)開始了對人工智能的探索,并取得了一系列令人矚目的成績。到二十世紀(jì)八九十年代,日本不僅在AI的應(yīng)用上實現(xiàn)了很多的突破,還提出了雄心勃勃的“第五代計算機(jī)”計劃。更重要的是,當(dāng)時幾乎整個AI學(xué)界都將深度學(xué)習(xí)視為異端,而日本保留著大量這個領(lǐng)域的人才,幾乎成了深度學(xué)習(xí)的最后堡壘。很多人都認(rèn)為日本將會引領(lǐng)之后的深度學(xué)習(xí)革命。

      然而,在進(jìn)入新世紀(jì)之后,日本在AI領(lǐng)域的地位卻日漸下降。在深度學(xué)習(xí)革命在全球范圍內(nèi)風(fēng)起云涌之時,這個曾經(jīng)的深度學(xué)習(xí)堡壘卻異常安靜。直到今天,日本在新一輪的AI革命中,似乎還沒找到自己的位置。

      那么,曾經(jīng)在AI領(lǐng)域領(lǐng)先的日本為何會失去過去的三十年?在這背后究竟有哪些值得我們借鑒的教訓(xùn)?在未來,日本的AI行業(yè)還有翻身的希望嗎?

      尋路:二十世紀(jì)六七十年代

      日本的AI發(fā)展史至少可以追溯到二十世紀(jì)六十年代。當(dāng)時,人工智能作為一個獨立的學(xué)科登上歷史舞臺還沒多久,關(guān)于這個學(xué)科應(yīng)該做什么、按照怎樣的方式發(fā)展,人們也還沒有任何的共識。盡管如此,單憑“創(chuàng)造類似人類智能”這個愿景,這個嶄新的學(xué)科就已足夠激動人心。剛剛從戰(zhàn)爭中恢復(fù)過來的日本很快就看到了該學(xué)科的巨大前景,并積極加入了對其進(jìn)行探索的行列。

      二十世紀(jì)六七十年代日本在AI領(lǐng)域取得的重要成就主要表現(xiàn)在兩個方面:

      一方面是機(jī)器人的研發(fā)和制造。日本之所以關(guān)注這一領(lǐng)域,主要是出于十分現(xiàn)實的考慮。作為“二戰(zhàn)”的發(fā)動者和戰(zhàn)敗國,日本在戰(zhàn)爭中損失了大量的人口,并造成了人口結(jié)構(gòu)的扭曲。這導(dǎo)致當(dāng)時的日本人口相對不足。隨著經(jīng)濟(jì)的恢復(fù),日本對勞動力的需求暴增,這就使得就業(yè)市場出現(xiàn)了嚴(yán)重的供不應(yīng)求。

      恰好,美國的萬能機(jī)公司(Unima-tion)在1960年研發(fā)出了世界上第一臺工業(yè)機(jī)器人,這讓日本認(rèn)識到用機(jī)器人來緩解勞動力不足的可能。起初,日本主要是從美國進(jìn)口機(jī)器人。1968年,日本的川崎重工業(yè)集團(tuán)(下稱“川崎”)從萬能機(jī)公司獲得了生產(chǎn)許可證,開始了自行生產(chǎn)。一開始,由于缺乏相關(guān)的經(jīng)驗,川崎生產(chǎn)的機(jī)器人毛病很多,但日本的工程師的學(xué)習(xí)和改進(jìn)能力非常強(qiáng),不久后,川崎生產(chǎn)的機(jī)器人性能就已經(jīng)超過了萬能機(jī)公司自己的產(chǎn)品。在川崎之后,很多日本企業(yè)也陸續(xù)投入到了機(jī)器人的研發(fā)和制造中來。到二十世紀(jì)七十年代初,日立、東芝、松下等企業(yè)都有了自己的機(jī)器人業(yè)務(wù),相關(guān)的配套網(wǎng)絡(luò)也逐步成長起來。

      在工業(yè)機(jī)器人領(lǐng)域站穩(wěn)腳跟之后,日本人又將眼光瞄向了更為復(fù)雜的人形機(jī)器人。1973年,日本早稻田大學(xué)成功制造出人形機(jī)器人WABOT-1。不同于那些只能完成固定任務(wù)的工業(yè)機(jī)器人,WABOT-1由肢體控制系統(tǒng)、視覺系統(tǒng)和對話系統(tǒng)組成,它不僅可以模仿人類行動,根據(jù)周圍環(huán)境做出反應(yīng),甚至還能與人進(jìn)行簡單的語言交流。可以想象,在那個時代,這款產(chǎn)品是具有相當(dāng)震撼效應(yīng)的。

      另一方面是對早期神經(jīng)網(wǎng)絡(luò)理論的探索。1958年,康奈爾大學(xué)教授弗蘭克·羅森布拉特(FrankRosenblatt)發(fā)明了一個名叫“感知機(jī)”(Perceptron)的早期神經(jīng)網(wǎng)絡(luò)模型,并用它成功完成了識別手寫字母的任務(wù)。雖然“感知機(jī)”的成功在相當(dāng)程度上向人們展示了神經(jīng)網(wǎng)絡(luò)的應(yīng)用前景,但圍繞著它的爭論也隨之而來。在關(guān)于它的眾多質(zhì)疑中,參數(shù)調(diào)整是十分重要的一個質(zhì)疑。我們知道,神經(jīng)網(wǎng)絡(luò)性能的優(yōu)劣幾乎完全取決于其模型的參數(shù),但由于模型的運(yùn)作本身是一個黑箱,所以人們想通過調(diào)整參數(shù)來優(yōu)化模型性能將變得十分困難。尤其是當(dāng)模型參數(shù)越來越多、模型層數(shù)越來越大時,其困難將呈幾何級數(shù)上升。事實上,也正是因為在很長一段時期內(nèi)人們都沒能找到處理這個問題的方法,所以當(dāng)時的大部分AI學(xué)者都放棄了這個技術(shù)路徑,轉(zhuǎn)投了當(dāng)時更為熱門的符號主義。

      不過,就在大部分學(xué)者將神經(jīng)網(wǎng)絡(luò)棄之如敝屣時,一些日本學(xué)者則矢志不渝地對此進(jìn)行持續(xù)研究。其中,貢獻(xiàn)最大的兩位學(xué)者有兩位:一位是甘利俊一(Shun-ichiAmari)。1967年,他提出了“隨機(jī)梯度下降法”(StochasticGradientDescent,簡稱SGD)。這個方法每次在訓(xùn)練數(shù)據(jù)集上選擇一個樣本或者一小批樣本進(jìn)行模型訓(xùn)練,通過對損失函數(shù)計算梯度,按照負(fù)梯度方向?qū)δP蛥?shù)進(jìn)行更新。這一方法的提出,為破解神經(jīng)網(wǎng)絡(luò)的調(diào)參問題提供了有力的思路。多年以后,辛頓(GeoffreyHinton)提出了“反向傳播算法”(Backpropagation)來訓(xùn)練模型,而其最初的靈感就是來自SGD。另一位學(xué)者則是福島邦彥(Ku-nihikoFukushima)。他的主要貢獻(xiàn)在于對神經(jīng)網(wǎng)絡(luò)架構(gòu)的探索。他于1979年提出,并在1980年實現(xiàn)的“神經(jīng)認(rèn)知機(jī)”(Neocognitron)模型就是后來“卷積神經(jīng)網(wǎng)絡(luò)”(ConvolutionalNeuralNet-works,CNN)的雛形。

      豪賭:二十世紀(jì)八九十年代

      到了二十世紀(jì)八十年代,符號主義的觀點成了AI領(lǐng)域公認(rèn)的主流。符號主義認(rèn)為人類認(rèn)知和思維的基本單元是符號,而認(rèn)知過程就是在符號表示上的一種運(yùn)算。因此,要實現(xiàn)人工智能,就必須模擬這種符號運(yùn)算。最初,符號主義者們主要致力于探索用符號進(jìn)行知識表示,并通過演繹來進(jìn)行推理。而到了二十世紀(jì)八十年代,愛德華·費吉鮑姆(EdwardA.Feigenbaum)開始將領(lǐng)域知識和符號推理聯(lián)系了起來,從而形成了一套被稱為“專家系統(tǒng)”的技術(shù)路徑。

      什么叫“專家系統(tǒng)”呢?通俗地說,它是一種模擬人類專家解決領(lǐng)域問題的計算機(jī)程序系統(tǒng)。這種系統(tǒng)有大量領(lǐng)域?qū)<宜降闹R與經(jīng)驗,并能夠根據(jù)系統(tǒng)中的知識與經(jīng)驗進(jìn)行推理和判斷,模擬人類專家的決策過程,從而解決那些復(fù)雜的問題。當(dāng)一個專家系統(tǒng)包含的知識庫越大時,它可以解決的問題就越多,能力也就越強(qiáng)大。而為專家系統(tǒng)準(zhǔn)備知識的過程就被稱為“知識工程”。

      與“深度學(xué)習(xí)”(DeepLearning)相比,“專家系統(tǒng)”在知識獲取上有很大的不同。“專家系統(tǒng)”的知識需要人來輸入,因而“知識工程”的主體是人,而“深度學(xué)習(xí)”則是由計算機(jī)通過神經(jīng)網(wǎng)絡(luò)來自行學(xué)習(xí),因而它更多是機(jī)器自己在學(xué)習(xí)。雖然從直觀上看,讓人來輸入知識顯然不如讓機(jī)器自己學(xué)習(xí)來得方便,但在當(dāng)時的技術(shù)條件下,人們還沒有找到調(diào)節(jié)神經(jīng)網(wǎng)絡(luò)參數(shù)的良方,算力上也不充足,因而“深度學(xué)習(xí)”幾乎無人問津,而“專家系統(tǒng)”則獨領(lǐng)風(fēng)騷。

      很快,“專家系統(tǒng)”對AI領(lǐng)域的全面統(tǒng)治也蔓延到了日本。但與美國不同的是,這個過程在日本是以一種政府主導(dǎo)的方式完成的。

      從二十世紀(jì)七十年代開始,經(jīng)濟(jì)實力迅速膨脹的日本就嘗試運(yùn)用國家主導(dǎo)的方式對一些關(guān)鍵的技術(shù)領(lǐng)域進(jìn)行攻關(guān),從而一舉搶占全球技術(shù)的制高點。起初,日本用這種方式取得了一系列的成功,其中最經(jīng)典的案例就是在動態(tài)隨機(jī)存取存儲器(DRAM)的研發(fā)過程中實現(xiàn)了巨大突破,從而讓日本成了當(dāng)時世界上最為領(lǐng)先的芯片大國。在實現(xiàn)了這些勝利后,日本政府立即將目光瞄向了當(dāng)時炙手可熱的計算機(jī)行業(yè),試圖搶在美國和歐洲之前開發(fā)出“第五代計算機(jī)”。

      所謂第五代計算機(jī),來自當(dāng)時流行的對計算機(jī)發(fā)展階段的一種劃分方法。最初,這種方法的階段劃分依據(jù)主要是計算機(jī)采用的電路工藝。按此標(biāo)準(zhǔn),第一代計算機(jī)使用的主要是電子管,第二代計算機(jī)使用的是晶體管,第三代計算機(jī)使用的是集成電路,第四代計算機(jī)使用的則是超大規(guī)模集成電路。

      日本通產(chǎn)省于1978年委托時任東京大學(xué)計算機(jī)中心主任的元岡達(dá)(TohruMoto-Oka)對第五代計算機(jī)進(jìn)行探索。1981年,元岡達(dá)向通產(chǎn)省提交了一份長達(dá)89頁的報告。報告認(rèn)為:第五代計算機(jī)可能并不是被硬件工藝的突破定義,而是被體系架構(gòu)和軟件的創(chuàng)新定義。通過軟硬件的結(jié)合,第五代計算機(jī)應(yīng)該能像人一樣與用戶進(jìn)行交互。在當(dāng)時的技術(shù)條件下,這種未來的新型計算機(jī)應(yīng)該是一個搭載著巨大的知識庫的硬件化專家系統(tǒng)。

      如今看來,元岡達(dá)的觀點實在是過于超前了——事實上,他對于第五代計算機(jī)的展望就是現(xiàn)在各大巨頭們正在競相嘗試的AIPC(人工智能電腦)。但在那個日本自信心爆棚的年代,它立即得到了通產(chǎn)省的認(rèn)可。通產(chǎn)省很快就決定牽頭啟動第五代計算機(jī)的開發(fā)工作。

      不過,在這一切開始前,還需要解決一個棘手的問題,即第五代計算機(jī)應(yīng)該采用什么架構(gòu)。在元岡達(dá)的報告中,他提出了六種先進(jìn)的架構(gòu):邏輯程序機(jī)、函數(shù)機(jī)、關(guān)系代數(shù)機(jī)、抽象數(shù)據(jù)類型機(jī)、數(shù)據(jù)流機(jī),以及基于馮諾依曼機(jī)的創(chuàng)新機(jī)。對于這六種架構(gòu),學(xué)界和業(yè)界都已經(jīng)有了一些探索。其中,函數(shù)機(jī)的探索是相對來說最成熟的。比如,初創(chuàng)公司Symbolics已經(jīng)在函數(shù)機(jī)上取得了不小的成就,它的軟件性能已經(jīng)可以比一般機(jī)器高出兩三倍。因此,當(dāng)時日本的不少專家也傾向于基于函數(shù)式編程語言LISP的函數(shù)機(jī)入手進(jìn)行突破。然而,以淵一博(KazuhiroFuchi)為代表的一些專家則力主攻關(guān)基于邏輯程序語言Prolog的邏輯程序機(jī)。關(guān)于淵一博為什么會堅持這一觀點,有一些解讀認(rèn)為,淵一博這么做其實是出于一個不足為外人道的原因:LISP是美國人提出的,而Prolog不是。因此,日本人為了實現(xiàn)“日本第一”的夢想,就不能沿著美國人的老路走。雖然這種觀點聽起來非常不理性,但聯(lián)想到時代背景,這又似乎是最合理的一種解釋。

      最終,在淵一博等人的力主之下,基于Prolog的邏輯語言機(jī)被確立為了日本認(rèn)定的第五代計算機(jī)的方向。隨后,日本通產(chǎn)省聯(lián)合幾大公司,一起成立了第五代計算機(jī)研究所(InstituteofNew GenerationComputerTechnolo-gy),并任命淵一博為該所的所長,統(tǒng)一協(xié)調(diào)研發(fā)事宜。淵一博從當(dāng)時的各大公司和研究機(jī)構(gòu)抽調(diào)了40位精干技術(shù)人員,號稱“四十浪人”來進(jìn)行具體研發(fā)。為了對項目提供有力支持,通產(chǎn)省計劃在十年內(nèi)投入四億五千萬美元的資金,同時由參與項目的公司也提供對應(yīng)資金進(jìn)行配套。

      為了開發(fā)第五代計算機(jī),日本幾乎是動用了舉國之力。在這一政策的影響之下,這個時代的日本AI界也自覺地團(tuán)結(jié)到了為這一目標(biāo)服務(wù)的隊伍中來。很自然地,專家系統(tǒng)成了日本AI界當(dāng)仁不讓的技術(shù)路徑。那么,日本的這場豪賭成功了嗎?答案是否定的。

      盡管在日本政府的熱捧之下,第五代計算機(jī)的概念看似很熱,相關(guān)的研討會不斷,論文層出不窮,但真正的技術(shù)研發(fā)卻舉步維艱。這一點很大程度上是由專家系統(tǒng)的特性決定的。如前所述,專家系統(tǒng)要足夠強(qiáng)大,就必須進(jìn)行龐大的知識工程。而為了保證輸入了這些知識的計算機(jī)可以和人實現(xiàn)自然交互,還需要對交互的規(guī)則進(jìn)行明確的設(shè)定。至少在那個時代,這是非常困難的。在現(xiàn)實中,一個詞、一句話可能有各種不同的意思,機(jī)器應(yīng)該采取哪種意思,要視情境而定。對于邏輯語言來說,每一個情景的規(guī)定,就是一個邏輯前提。因此,要用這種語言來實現(xiàn)自然語言,其需要加入的邏輯規(guī)則將是海量的,而再要機(jī)器根據(jù)相關(guān)的知識輸出用戶需要的內(nèi)容,則更是難上加難,技術(shù)上根本無法實現(xiàn)。與此同時,日本經(jīng)濟(jì)高歌猛進(jìn)的勢頭也急轉(zhuǎn)直下,日本政府也不再有充足的實力來支持項目。最終,在提出了一些并不成功的樣機(jī)之后,日本的第五代計算機(jī)項目以失敗告終。

      第五代計算機(jī)項目的失敗對于日本AI界來說是巨大的打擊。它不僅讓巨額的研發(fā)經(jīng)費付諸東流,更是把整個AI界都帶偏了方向。本來,日本在神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)方面有很強(qiáng)的底蘊(yùn),但在全面為第五代計算機(jī)服務(wù)的背景下,全社會的資源都在向?qū)<蚁到y(tǒng)這一路徑傾斜,甚至連福島邦彥這樣的大佬都很難申請到需要的經(jīng)費。日本在神經(jīng)網(wǎng)絡(luò)上的優(yōu)勢開始逐漸消退。

      掉隊:二十一世紀(jì)

      深度學(xué)習(xí)的淵源幾乎可以追溯到AI學(xué)科創(chuàng)立之初,“感知機(jī)”等模型就是其先驅(qū)。然而,因為技術(shù)條件的限制,這一支技術(shù)路徑一直處于邊緣狀態(tài)。甚至連辛頓這樣的頂尖學(xué)者很長時間都只能坐冷板凳。

      2006年,命運(yùn)的齒輪發(fā)生了轉(zhuǎn)動。那一年,辛頓和其學(xué)生西蒙·奧辛德羅(SimonOsindero)發(fā)表了一篇重要的論文《一種深度置信網(wǎng)絡(luò)的快速學(xué)習(xí)算法》(A FastLearningAlgorithm forDeepBeliefNets),建議利用GPU(圖形處理器)來提升訓(xùn)練神經(jīng)網(wǎng)絡(luò)的速度。這篇論文的發(fā)表,讓很多人認(rèn)識到用GPU來突破算力瓶頸的可能性,因而神經(jīng)網(wǎng)絡(luò)研究在沉寂多年后,終于重新迎來了生機(jī)。為了讓人們擺脫對這個學(xué)科的成見,辛頓還專門為這類研究重新起了一個名字,“深度學(xué)習(xí)”的大名就由此而來。

      到2012年,深度學(xué)習(xí)終于向全世界展示了自己的力量。那年,一個名叫AlexNet的神經(jīng)網(wǎng)絡(luò)模型以 15.3%的低錯誤率贏得了ImageNet大規(guī)模視覺識別挑戰(zhàn)賽。這個成績,足足比之前的錯誤率紀(jì)錄降低了一半。這讓整個AI界認(rèn)識到,隨著算力瓶頸的突破,或許深度學(xué)習(xí)才是未來AI的發(fā)展方向。于是,大批的資本、人才都開始涌入這個領(lǐng)域,而這個領(lǐng)域也迎來了爆發(fā)性的增長。2016年,基于深度學(xué)習(xí)的AlphaGo模型就擊敗了人類頂尖的圍棋選手。2017年,Transformer架構(gòu)又橫空出世,基于這一架構(gòu),人們開始了生成式AI模型的研發(fā)。而幾年之后,ChatGPT(OpenAI聊天機(jī)器人)又進(jìn)一步引領(lǐng)了生成式AI革命。毫不夸張地說,在過去的十幾年中,深度學(xué)習(xí)簡直是在帶領(lǐng)整個AI界一路狂奔。

      在這段時間內(nèi),日本發(fā)生了什么呢?正如我們之前看到的,其實日本在很早就有深厚的神經(jīng)網(wǎng)絡(luò)研究底蘊(yùn),像甘利俊一、福島邦彥等學(xué)者都是這個領(lǐng)域當(dāng)之無愧的先驅(qū)。事實上,在二十世紀(jì)八十年代,當(dāng)幾乎全世界都拋棄了神經(jīng)網(wǎng)絡(luò)之時,還有不少日本學(xué)者堅持做這方面的研究。據(jù)“深度學(xué)習(xí)革命三杰”之一的楊立昆(YannLeCun)回憶,1988年他構(gòu)思“卷積神經(jīng)網(wǎng)絡(luò)”(Con-volutionalNeuralNetworks,CNN)時,能夠查到的文獻(xiàn)幾乎都是日本人寫的。然而,正是這樣一個神經(jīng)網(wǎng)絡(luò)底蘊(yùn)深厚的國家,在深度學(xué)習(xí)革命到來之時,卻出現(xiàn)了相關(guān)人才青黃不接的現(xiàn)象。全國押注第五代計算機(jī)帶來的導(dǎo)向作用很可能是一個關(guān)鍵原因。畢竟,在研究專家系統(tǒng)的收益肉眼可見地高于神經(jīng)網(wǎng)絡(luò)時,誰又會選擇這樣一個冷門專業(yè)呢?而當(dāng)?shù)谖宕嬎銠C(jī)的夢想在二十世紀(jì)九十年代最終破裂后,日本干脆削減了對整個AI學(xué)科的資金扶持,這就導(dǎo)致了最優(yōu)秀的人才根本不愿意進(jìn)入這個領(lǐng)域。

      日本的背運(yùn)還不止于此。本來,在日本的經(jīng)濟(jì)實力如日中天之時,很多日本企業(yè)曾到美國開辦實驗室,它們曾在當(dāng)?shù)卣袛埡蛢溥^大批的AI人才。其中,最有代表性的就是NECLab,它由著名的日本電氣株式會社(NipponElectricCompany,NEC)于1988年在硅谷成立。曾經(jīng),包括楊立昆、瓦普尼克(VladimirVapnik)、伯托(LeonBot-tou)、龔怡宏等在深度學(xué)習(xí)領(lǐng)域舉足輕重的人物都曾經(jīng)供職于NECLab。然而,這些人才一個也未能被日本所用,而是先后出走,為美國和中國的深度學(xué)習(xí)事業(yè)作出了巨大的貢獻(xiàn)。之所以會有這樣的結(jié)果,一是由于NECLab本身的導(dǎo)向有誤,只重理論,不重現(xiàn)實,這讓本應(yīng)高度與實踐結(jié)合的AI人才毫無用武之地。二是它的管理十分僵化。比如楊立昆就因去普林斯頓大學(xué)講學(xué)未經(jīng)報備而遭到了實驗室領(lǐng)導(dǎo)的批評。在這種情況下,NECLab當(dāng)然就很難留住人才。

      國內(nèi)人才斷層,國外人才又留不住,這些原因加在一起,就導(dǎo)致了日本在深度學(xué)習(xí)高歌猛進(jìn)之時,完美地錯失了這次革命。盡管這幾年,日本政府已經(jīng)發(fā)現(xiàn)了問題,開始嘗試用政策鼓勵A(yù)I的發(fā)展。“冰凍三尺非一日之寒”,至少到目前為止,這個曾經(jīng)的未來科技大國仍然在最近的生成式AI大潮中處于一個可有可無的位置。

      迷思:日本的AI發(fā)展還有戲嗎?

      日本究竟還有沒有機(jī)會成功實現(xiàn)逆襲,重新成為AI大國呢?在我看來,機(jī)會依然是存在的。實際上,盡管日本現(xiàn)在在基礎(chǔ)AI模型和應(yīng)用上都暫時處于全面落后狀態(tài),但它的歷史積累決定了它在應(yīng)用層面是具有相當(dāng)潛力的。

      日本AI發(fā)展的一個可能方向是具身AI。通俗地說,就是將AI智能體(AIAgent)與機(jī)器人結(jié)合起來,讓機(jī)器人能夠和人交流,并按照人的指示完成復(fù)雜的任務(wù)。從歷史看,日本在機(jī)器人領(lǐng)域的積累非常深厚。正如我們前面看到的,從二十世紀(jì)七十年代起它就開始了人形機(jī)器人的探索。直到最近,它在這個賽道依然保持著相對領(lǐng)先的地位。比如,本田的阿西莫(ASIMO)機(jī)器人就廣受市場贊譽(yù),但從性能上看,它的表現(xiàn)甚至好于比它晚出很多年的類似產(chǎn)品(不過,它也有其弱點,就是實在太貴了)。可以想象,如果將一個類似GPT的模型植入到這樣的機(jī)器人中,它的表現(xiàn)將會非常驚艷,其市場空間也十分可期。當(dāng)然,除了制作這樣高端的機(jī)器人之外,日本還可以利用其先進(jìn)的機(jī)器人技術(shù)開發(fā)一些玩具級別的機(jī)器人,并讓它們搭載AI。這樣的產(chǎn)品,或許可以有很好的銷路。

      另一個可能方向是行業(yè)大模型。現(xiàn)在,主要的AI企業(yè)大多是在開發(fā)通用大模型方面競爭,但其實市場上真正的需求卻是行業(yè)專用的大模型。不過,到目前為止,行業(yè)大模型的發(fā)展并不算好,究其原因,就是現(xiàn)在的AI企業(yè)在行業(yè)層面的積累都太少,相關(guān)的數(shù)據(jù)積累十分缺乏。日本由于過去在專家系統(tǒng)領(lǐng)域的押注巨大,有很多行業(yè)知識庫的積累。如果可以將專家系統(tǒng)與現(xiàn)在的生成式AI模型進(jìn)行有機(jī)的結(jié)合,那么其開發(fā)出的行業(yè)大模型的性能可能會相當(dāng)好。

      一旦有日本的AI企業(yè)率先從類似的領(lǐng)域發(fā)起突圍,并真正實現(xiàn)了盈利,那么日本全社會對AI興趣的低迷就會被扭轉(zhuǎn),人才也會陸續(xù)重新回到這個領(lǐng)域。加之相關(guān)政策的支持,以及之前積累的技術(shù)根底,日本未必不能在一個相對較短的時期內(nèi)重新成為一個AI大國。

      結(jié)語

      日本在神經(jīng)網(wǎng)絡(luò)研究上起步很早,積累很深,但倒在了“深度學(xué)習(xí)革命”的黎明前。縱向產(chǎn)業(yè)政策的扭曲作用不容忽視。在AI這樣一個技術(shù)路徑多元,各條技術(shù)路徑之間競爭激烈的行業(yè),要預(yù)測哪一條路徑會最終勝出是極為困難的。尤其是在“范式轉(zhuǎn)換”作用的影響下,不同技術(shù)路徑的優(yōu)劣更是隨時可能發(fā)生逆轉(zhuǎn)。面對這樣的情況,用縱向產(chǎn)業(yè)政策去選定一個技術(shù)方向扶持就幾乎是一場豪賭。一旦失敗,其成本將是巨大的。日本的教訓(xùn)是慘痛的。

      如果當(dāng)年日本采用了橫向產(chǎn)業(yè)政策,一方面,對所有的技術(shù)路徑都給予一些支持,讓甘利俊一和福島邦彥們都有相對充足的經(jīng)費深入自己的研究。另一方面,通過政府的協(xié)調(diào),將一些熱門領(lǐng)域的研究和機(jī)器人等日本傳統(tǒng)的優(yōu)勢結(jié)合起來。那么,今天日本的AI發(fā)展很可能是另外一番景象。

       

      熱新聞

      電子刊物

      點擊進(jìn)入
      久久精品福利网站免费
      <nav id="4uuuu"></nav>
    • <tr id="4uuuu"></tr>
    • <tr id="4uuuu"></tr>
    • <tfoot id="4uuuu"><dd id="4uuuu"></dd></tfoot>
      • <noscript id="4uuuu"><optgroup id="4uuuu"></optgroup></noscript>