飛象原創(chuàng)(魏德齡/文)諾貝爾獎(jiǎng)得主杰弗里·辛頓在2025世界人工智能大會(huì)上的發(fā)言令很多人感到興奮,尤其是圍繞人類理解語(yǔ)言與大模型理解問(wèn)題相似性的觀點(diǎn),以及大模型在博聞強(qiáng)記方面的能力,尤其是所謂會(huì)出現(xiàn)比人類更智能AI的觀點(diǎn),無(wú)疑燃起了現(xiàn)場(chǎng)的人工智能從業(yè)者繼續(xù)努力奮斗的高昂斗志。
然而,如果仔細(xì)審視前沿領(lǐng)域人工智能觀點(diǎn)的話,包括辛頓的發(fā)言在內(nèi),無(wú)論是對(duì)大模型的褒與貶,實(shí)際上均來(lái)自于對(duì)這些技術(shù)未來(lái)的無(wú)限擔(dān)憂。正如奧本海默的那句:“我已成為死亡,世界的毀滅者”。如果說(shuō)核能技術(shù)是人類打開(kāi)的一次潘多拉魔盒的話,人工智能可能是歷史的又一次押韻。
對(duì)大模型的褒與貶
辛頓的發(fā)言無(wú)疑代表對(duì)于大模型褒的一面,在去年一次與外媒的采訪中,他便表示AI將會(huì)在最終操控人類。當(dāng)他在2022年看到Google開(kāi)發(fā)的大語(yǔ)言模型PaLM的聊天機(jī)器人能夠解釋笑話的時(shí)候,他認(rèn)為這是AI能夠理解人類語(yǔ)言的重要時(shí)刻,并逐漸開(kāi)始意識(shí)到AI有可能威脅人類,未來(lái)?yè)碛谐饺祟愔腔鄣腁I將可以用語(yǔ)言操控人類,試圖說(shuō)服不要關(guān)掉電源的開(kāi)關(guān)。
如同人類在勸說(shuō)操控一個(gè)3歲的孩子,“有個(gè)人,把老虎當(dāng)寵物,那老虎也可以當(dāng)小虎崽,是很可愛(ài)的寵物。但是,如果一直養(yǎng)這個(gè)寵物,那么你要確保它長(zhǎng)大的時(shí)候,它不會(huì)把你給殺掉!苯o出這段發(fā)言的辛頓似乎在復(fù)述“養(yǎng)虎為患”的成語(yǔ)故事。
而辛頓的好朋友,與他一起獲得圖靈獎(jiǎng)的楊立昆,卻代表了對(duì)于大模型貶的一面。在他的觀點(diǎn)中,人工智能更像是一個(gè)小鎮(zhèn)做題家般的書(shū)呆子,對(duì)于世界的理解局限于大量的現(xiàn)有資料內(nèi)容,但人類的知識(shí)理解涉及對(duì)世界的感知、經(jīng)驗(yàn)、情感以及更深層次的直覺(jué)和常識(shí),這是很多文本難以觸及的層面。有人這樣形容:“GPT 雖然‘讀遍’了互聯(lián)網(wǎng),但它從未喝過(guò)一口紅酒、摔過(guò)一只杯子,從未親身體驗(yàn)過(guò)任何事情!钡珜(duì)于一個(gè)可能還坐不穩(wěn)的嬰兒來(lái)說(shuō),便已經(jīng)能夠通過(guò)以不斷向地面拋出物體的方式,感知了解地心引力所帶來(lái)的物理特性。
于是,楊立昆開(kāi)始越來(lái)越提及AMI(先進(jìn)機(jī)器智能)一詞,可以學(xué)習(xí)抽象概念,并據(jù)此進(jìn)行邏輯推理、制定計(jì)劃的AI系統(tǒng)。如同人類全神貫注于一件事時(shí), AI 模型不應(yīng)該僅僅依賴像素級(jí)重建誤差,而是要具備多層次抽象表征能力。好比人類的大腦并非逐像素、逐幀地處理世界,而是依賴抽象層次的表征與結(jié)構(gòu)化信息。
已經(jīng)上崗的不完美管理者
然而,正是這樣沒(méi)有抽象能力、沒(méi)有感知能力的人工智能,卻在如今已經(jīng)在很多企業(yè)中進(jìn)入到實(shí)際崗位中,甚至可能成為很多普通人工作生活中難以揮之的夢(mèng)魘。今年在人工智能領(lǐng)域的一大暢銷書(shū)《連結(jié)》中,列舉了不少AI在掌握關(guān)鍵權(quán)力后,可能帶來(lái)的隱憂。
例如,銀行中正在開(kāi)始通過(guò)人工智能來(lái)進(jìn)行放貸的評(píng)定,這也意味著對(duì)于信用稍有問(wèn)題的人來(lái)說(shuō),一旦失去了人情的介入,出現(xiàn)資金問(wèn)題,無(wú)法還款,此人將可能在人工智能來(lái)進(jìn)行判定的體系中,再無(wú)出頭之日。
這也引出的另一個(gè)問(wèn)題便是,人工智能在信用評(píng)定中的思維方式在大模型中完全處于黑盒的狀態(tài),無(wú)論是AI在進(jìn)行信用評(píng)定,或充當(dāng)人力資源管理者進(jìn)行績(jī)效考核,更不用提使其進(jìn)入執(zhí)法或安全領(lǐng)域,誰(shuí)也可能無(wú)法說(shuō)清大模型的腦子里到底在真實(shí)的想些什么,又如何充當(dāng)著人類工作生活的裁判員。如果活在訂單系統(tǒng)中的外賣員已經(jīng)足夠辛苦的話,未來(lái)由大模型所規(guī)劃的工作考核,也許將會(huì)讓更多人汗流浹背。甚至不完美的人工智能可能會(huì)帶來(lái)某種新形式的官僚辦事風(fēng)格。
另一個(gè)近在咫尺的話題,便是擁有幻覺(jué)、不完美的人工智能作品正在污染人類的知識(shí)體系,并進(jìn)一步影響模型的認(rèn)知。當(dāng)下搜索引擎所使用AI總結(jié)的內(nèi)容結(jié)果,很多錯(cuò)誤百出,但對(duì)于門外漢而言,可能信以為真。更不用說(shuō)AGI撰寫(xiě)的文章,盡管外行看著內(nèi)行,但內(nèi)行看了又十分外行,有些幻覺(jué)更是令人笑掉大牙。
同時(shí),奇怪蹩腳的機(jī)器語(yǔ)言,還正在成為兒童的對(duì)外交流工具,不少?gòu)S商開(kāi)始將AI引入到早教產(chǎn)品中,悟性欠缺、沒(méi)有感知能力,難以多層次抽象表征的人工智能,反倒成為了人類幼崽的老師,讓不少人開(kāi)始為人類的未來(lái)而擔(dān)憂。
褒貶之意在于向善
實(shí)際上,很多人在聽(tīng)取辛頓的演講后都發(fā)現(xiàn),核心表達(dá)之意可能并不在于人工智能將會(huì)如何取代人類,而是AI向善!懊總(gè)國(guó)家可以做自己的研究,讓AI向善。他可以在自己主權(quán)的AI上進(jìn)行研究,他不可以不給別的國(guó)家,但是,他可以把成果分享給大家,也就是怎么訓(xùn)練AI,讓AI向善!
這一層面,顯然比警惕未來(lái)AI如何統(tǒng)治世界更具現(xiàn)實(shí)意義。就像同期展館中的一些演示項(xiàng)目,AI開(kāi)始監(jiān)測(cè)到崗員工的情緒,觀察教室中學(xué)生的上課狀態(tài),一個(gè)本沒(méi)有情感的智能體,卻開(kāi)始監(jiān)督起人類的情感。
《連結(jié)》一書(shū)開(kāi)頭拋出這樣的問(wèn)題:“要是我們真那么聰明,為什么這么愛(ài)走上自我毀滅的道路?”而該書(shū)給出的答案是,面對(duì)人工智能,也需要打造強(qiáng)大的自我修正機(jī)制。
如果只是一味逐利于AI概念,或幻想通過(guò)打開(kāi)魔盒換來(lái)突飛猛進(jìn)的快感,最終并不是AI將操控的人類,而是失控的人類,正在作繭自縛。