東西問丨加州理工學(xué)院教授:AI永遠(yuǎn)是人類的附屬品
中新社北京7月19日電 題:AI永遠(yuǎn)是人類的附屬品
——專訪美國加州理工學(xué)院電氣工程和計(jì)算機(jī)科學(xué)教授亞瑟·阿布-穆斯塔法
《中國新聞周刊》記者 霍思伊
由ChatGPT和GPT-4引發(fā)的“人工智能狂潮”遠(yuǎn)比人們預(yù)想的持續(xù)更久,伴隨而來的爭(zhēng)議與憂慮也在不斷發(fā)酵?;貧w科學(xué),反思以GPT-4為代表的AI能力的邊界:它能做什么?不能做什么?最重要的是,人類現(xiàn)在必須采取什么行動(dòng)來實(shí)現(xiàn)“有益的AI”?《中國新聞周刊》近日就以上問題專訪美國加州理工學(xué)院電氣工程和計(jì)算機(jī)科學(xué)教授亞瑟·阿布-穆斯塔法(Yaser S. Abu-Mostafa)。他是人工智能領(lǐng)域的知名專家,同時(shí)也是IEEE神經(jīng)網(wǎng)絡(luò)委員會(huì)的創(chuàng)始人之一,曾在多家科技公司擔(dān)任機(jī)器學(xué)習(xí)顧問。
現(xiàn)將訪談實(shí)錄摘要如下:
AI的應(yīng)用遠(yuǎn)比設(shè)計(jì)更復(fù)雜和危險(xiǎn)
記者:此前,埃隆·馬斯克等人簽署了聯(lián)名公開信,業(yè)內(nèi)形成了對(duì)人工智能發(fā)展的兩種截然不同的看法,你更認(rèn)同哪方?
阿布-穆斯塔法:聯(lián)名公開信意圖是好的,但無法起到任何實(shí)質(zhì)效果,因?yàn)椴粫?huì)真的有公司遵守并暫停六個(gè)月的AI研發(fā)。我認(rèn)為這是對(duì)人工智能“過于快速發(fā)展”的下意識(shí)反應(yīng),是沒有經(jīng)過深思熟慮的行為。我個(gè)人不贊同暫停更強(qiáng)大AI模型的研發(fā)?,F(xiàn)在要做的不是暫停,而是如何更好阻止其“不良使用”。所以我沒有簽署公開信。
如何推動(dòng)更強(qiáng)有力的人工智能監(jiān)督?政府需要通過立法對(duì)如何“合理地使用”AI進(jìn)行約束或限制,歐盟《人工智能法案》是一個(gè)開始。立法必須經(jīng)過謹(jǐn)慎考量,而不是短期內(nèi)出于對(duì)人工智能的恐懼或?yàn)榱藨?yīng)對(duì)想象中的風(fēng)險(xiǎn)而匆忙制定。目前為止,我還沒有看到任何提議或法案經(jīng)過了深思熟慮,并可以得到有效執(zhí)行。
記者:如何使AI真正符合人類的價(jià)值觀和道德準(zhǔn)則?
阿布-穆斯塔法:這完全取決于AI系統(tǒng)的開發(fā)者和使用者。人工智能沒有內(nèi)在的道德或惡意,它只是服從命令,做人類訓(xùn)練它去做的事情。如果人類給它的是充滿偏見的數(shù)據(jù),就會(huì)誕生一個(gè)充滿偏見的AI。因此OpenAI需要不斷調(diào)整,選擇一些好的數(shù)據(jù)或讓ChatGPT不回答惡意問題。但復(fù)雜之處在于,即使開發(fā)者把整個(gè)AI系統(tǒng)設(shè)計(jì)得很“符合人類價(jià)值觀”,仍會(huì)有用戶從不同角度使用它,這是開發(fā)者控制不了的。因此,AI應(yīng)用遠(yuǎn)比設(shè)計(jì)更復(fù)雜和危險(xiǎn)。
人類社會(huì)中,好壞標(biāo)準(zhǔn)是不明確的。訓(xùn)練一個(gè)AI下棋,如AlphaGo,規(guī)則是明確的,AI經(jīng)過訓(xùn)練后很清楚如何界定“好的行為”——只要能贏就是一步好棋。但更多時(shí)候,要訓(xùn)練AI去完成一些缺乏客觀好壞規(guī)則的任務(wù),讓系統(tǒng)自身去理解什么是“好的行為”非常困難。
記者:聯(lián)名公開信指出,最近幾個(gè)月,人工智能實(shí)驗(yàn)室正陷入一場(chǎng)失控的競(jìng)賽(out-of-control race),這是否真的在發(fā)生?
阿布-穆斯塔法:這是一種非常情緒化的表述。不過可以預(yù)料到,在短期未來AI產(chǎn)業(yè)格局中,世界范圍內(nèi)很可能只有兩到三個(gè)非常強(qiáng)大的類似ChatGPT的人工智能工具占領(lǐng)整個(gè)全球市場(chǎng),因?yàn)殚_發(fā)這樣的大模型成本巨大,需要數(shù)千個(gè)GPU(圖形處理器)核心運(yùn)行2個(gè)月,以及海量的數(shù)據(jù)和算力。這也是為什么目前所有最新的大模型進(jìn)展都來自科技公司,而不是大學(xué)。
五年后是否可能誕生一種能節(jié)省大量計(jì)算資源的新模型,還未可知。如果以后真的出現(xiàn)一種完全不同的模型,可以讓成本從10億美元降至1000萬美元,這就改變了游戲規(guī)則,屆時(shí)將會(huì)有大量玩家出現(xiàn)。
記者:大模型時(shí)代的到來,也和基于“預(yù)訓(xùn)練+微調(diào)”這種自然語言處理(NLP)的主流范式有關(guān)。2018年后,這種模式幾乎重塑了人工智能的商業(yè)形態(tài),你如何看待這種趨勢(shì)?
阿布-穆斯塔法:“預(yù)訓(xùn)練+微調(diào)”是一種分而治之的巧妙方式,一次訓(xùn)練AI專注于一個(gè)問題并完善它。這使人們能在目前成就基礎(chǔ)上再接再厲,而非從頭開始。
OpenAI將其對(duì)公眾開放的這個(gè)主意很聰明,現(xiàn)在他們獲得了大量的數(shù)據(jù)和反饋,可用來訓(xùn)練新一代系統(tǒng),而且這些資源是獨(dú)家的,因?yàn)楣姴粫?huì)對(duì)下一個(gè)類似產(chǎn)品產(chǎn)生同樣多的興趣。
AI只是在復(fù)制人類的“外觀”
記者:如何理性客觀認(rèn)知當(dāng)下的人工智能水平和ChatGPT的能力邊界?
阿布-穆斯塔法:我有個(gè)朋友問ChatGPT:“關(guān)于阿布-穆斯塔法,你知道什么?”ChatGPT列出了關(guān)于我的一份詳細(xì)履歷和人物小傳,首段看起來非常專業(yè),但接下來就有不少錯(cuò)誤,比如搞錯(cuò)了我的大學(xué)。這充分說明了ChatGPT的本質(zhì):某種意義上,它只是把所有信息以一種非常特殊的彼此相關(guān)的方式放在一起。
人工智能使用了一種類似人類大腦的結(jié)構(gòu),這種結(jié)構(gòu)以一種高效方式存儲(chǔ)信息,看到新情況后推理判斷什么是“最接近它的東西”。這就是深度神經(jīng)網(wǎng)絡(luò)所做的,已持續(xù)幾十年。
目前,人工智能整體發(fā)展水平令人振奮。但即使在業(yè)內(nèi),真正了解所有技術(shù)細(xì)節(jié)的人很少,只有OpenAI、Google這些參與了大模型訓(xùn)練的人才能說清楚,但他們對(duì)外分享信息有限。我推測(cè),下一步最重要的突破可能集中在AI系統(tǒng)如何用更少資源達(dá)到相同的性能水平。
記者:沿這條路繼續(xù)走,AI是否能進(jìn)化到理解“概念”和“常識(shí)”?有專家認(rèn)為GPT-4已初具“自我反思”能力,你怎么看?
阿布-穆斯塔法:如果說人工智能已發(fā)展出自我反思能力,那一定是數(shù)量巨大的任務(wù)訓(xùn)練帶來的,是通過合并足夠數(shù)量的“分散而零碎的智能任務(wù)”實(shí)現(xiàn)的。比如說做1000個(gè)ChatGPT,其中一個(gè)對(duì)語言感興趣,一個(gè)處理數(shù)學(xué)問題,一個(gè)負(fù)責(zé)視覺識(shí)別……直到其“能力”覆蓋幾乎人類所有領(lǐng)域,再合并為一,它一定能表現(xiàn)出一種“通用的智能”,這就是“多模態(tài)機(jī)器學(xué)習(xí)”的本質(zhì)。
但這只是表象,只是看起來具備自我反思能力和通用智能。某種意義上,這個(gè)巨大系統(tǒng)只是試圖復(fù)制人類的“外觀”。
記者:怎么理解微軟研究人員稱,GPT-4已經(jīng)顯示出接近人類智能或通用人工智能的“火花”?
阿布-穆斯塔法:問題的關(guān)鍵是,“通用人工智能”(Artificial General Intelligence,AGI)到底是什么?對(duì)于通用人工智能,人類想追求的是:AI突然之間學(xué)會(huì)了以上所有,能舉一反三,而不是一次次學(xué)會(huì)某個(gè)特定任務(wù)。但這是一個(gè)非常模糊的描述。
現(xiàn)在迫切需要就“通用人工智能”概念達(dá)成共識(shí),用精確的計(jì)算機(jī)語言界定它,制定明確的檢驗(yàn)規(guī)則。遵照這些規(guī)則,人類才能知道AGI是否已經(jīng)實(shí)現(xiàn)、潛在的危險(xiǎn)是什么。
人類為什么這么關(guān)心“通用人工智能”,因?yàn)樗|及了人性中最根本的東西,侵犯了人類的自我(Ego),即人類是不是最獨(dú)一無二的存在。對(duì)如何實(shí)現(xiàn)AGI,目前所有想法都只是推測(cè),人們只能針對(duì)已看到的技術(shù)范式進(jìn)行突破;但真實(shí)情況是,我們根本難以想象會(huì)走上一條怎樣的路徑。
當(dāng)人們談?wù)摗巴ㄓ萌斯ぶ悄堋睍r(shí),承載了太多情感,有時(shí)甚至是不切實(shí)際的期望和恐懼,但這種恐懼把智能和“自我”混為一談。人們必須冷靜下來,理性地把AGI視作一個(gè)科學(xué)目標(biāo)。
記者:人工智能是否能產(chǎn)生“自我意識(shí)”?
阿布-穆斯塔法:我認(rèn)為AI領(lǐng)域的任何技術(shù)進(jìn)步都不可能產(chǎn)生一個(gè)“有意識(shí)的實(shí)體”。意識(shí)和情緒的“顯現(xiàn)”很容易做到,AI未來能“看起來像擁有了情感或意識(shí)”,就像電影里有一個(gè)演員表達(dá)出了某種強(qiáng)烈的情緒,但這只是表演,是純粹的行為表象。
對(duì)人類意識(shí)的定義在科學(xué)上都是不確定的,客觀上也不可測(cè)量。我知道我有意識(shí),你有意識(shí),你知道愛是什么,情感是什么,悲傷是什么,因?yàn)槟隳芨杏X到,你能與它們聯(lián)系起來。但這些都是人類經(jīng)驗(yàn)。為什么會(huì)這樣?我們不知道。
我認(rèn)為AI始終是一個(gè)無生命的機(jī)器,背后有嚴(yán)密的齒輪在驅(qū)動(dòng)它,這些齒輪就是參數(shù)。復(fù)雜的輸出可能會(huì)給我們留下“那里有一個(gè)與眾不同的人”的印象,但這種輸出不是來自意識(shí),而是算法。為什么我們認(rèn)為有人在那里?因?yàn)楫?dāng)人們看到這個(gè)輸出后,把它在腦海中與過去的記憶、情感,與人類自身聯(lián)系在一起。
常規(guī)工作或在更短時(shí)間內(nèi)被AI替代
記者:未來哪些行業(yè)會(huì)從AI發(fā)展中受益,哪些可能被顛覆?
阿布-穆斯塔法:所有行業(yè)都會(huì)從人工智能的發(fā)展中受益,甚至以無法預(yù)料到的方式。
五年前有人問我:人工智能下一個(gè)20年如何發(fā)展?我說,AI將在20年內(nèi)取代人類幾乎所有常規(guī)智能工作(routine intelligence tasks),也就是“完成復(fù)雜任務(wù)但不需要?jiǎng)?chuàng)新的智能”,自動(dòng)駕駛是一個(gè)典型例子。這是一個(gè)必須要積極解決的社會(huì)問題,否則很多人將面臨失業(yè)。
ChatGPT誕生后,我修正了我的預(yù)期,我現(xiàn)在認(rèn)為,可能不需要20年,這些常規(guī)工作在更短時(shí)間內(nèi)就可能被AI替代,不管我們?nèi)绾谓缍ā巴ㄓ萌斯ぶ悄堋?,常?guī)智能是通向它的第一步。
記者:在常規(guī)智能工作之外,AI未來是否也會(huì)取代一些更具有創(chuàng)造力的工作?
阿布-穆斯塔法:以AlphaGo為例,你會(huì)發(fā)現(xiàn)AI在某種意義上也在進(jìn)行“創(chuàng)造性的防御”:為贏得比賽,它發(fā)現(xiàn)了人類沒想到的防御策略。我不知道這是不是創(chuàng)新或只是自動(dòng)化的產(chǎn)物,因?yàn)檫@背后是AI對(duì)海量策略的嘗試?!癆I的創(chuàng)造力”目前也沒有很可靠的定義。
記者:人類應(yīng)如何與AI共存?
阿布-穆斯塔法:我們沒有與AI共存的壓力,AI永遠(yuǎn)是人類的附屬品。(完)
受訪者簡介:
亞瑟•阿布-穆斯塔法(Yaser S. Abu-Mostafa),埃及裔美國計(jì)算機(jī)科學(xué)家,加利福尼亞理工學(xué)院電氣工程和計(jì)算機(jī)科學(xué)教授。研究涵蓋人工智能、機(jī)器學(xué)習(xí)、模式識(shí)別和數(shù)據(jù)科學(xué)等多個(gè)領(lǐng)域,在人工智能教育和科普方面做出重要貢獻(xiàn)。
國內(nèi)新聞精選:
- 2024年12月23日 14:13:38
- 2024年12月23日 12:01:50
- 2024年12月22日 16:48:36
- 2024年12月22日 15:53:01
- 2024年12月22日 09:16:06
- 2024年12月22日 09:08:46
- 2024年12月21日 19:19:45
- 2024年12月21日 17:09:19
- 2024年12月21日 14:25:07