“深度學(xué)習(xí)三巨頭”之一杰弗里·辛頓請辭谷歌,警示人們?nèi)斯ぶ悄茱L(fēng)險緊迫?
新技術(shù)總會伴隨新風(fēng)險,AI為何更棘手?
站在“人類文明的十字路口”,AI何去何從?這是擺在人類面前的一道必答題。自去年底ChatGPT橫空出世、5天突破百萬用戶以來,有關(guān)AI與人類未來的討論愈演愈烈,從產(chǎn)業(yè)界到學(xué)界,至今尚無定論。
回望歷史,科學(xué)技術(shù)的發(fā)展總是在反對和質(zhì)疑聲中一路前行。新技術(shù)總會伴隨新風(fēng)險,這一次為何更棘手?作為地球文明的主導(dǎo)者,我們似乎遇到了一個前所未有的挑戰(zhàn):以目前AI的發(fā)展速度,人類會否淪為硅基智慧演化的一個過渡階段?這一次人人都是參與者,無人可以置身事外。
——編者
■本報記者 沈湫莎
繼全球千余名業(yè)界大佬公開簽名呼吁暫停研發(fā)比GPT-4更強大的人工智能(AI)系統(tǒng)后,在業(yè)內(nèi)有“AI教父”之稱的計算機科學(xué)家杰弗里·辛頓(Geoffrey Hinton)本月初宣布離職谷歌,進一步加深了人們對AI是否已經(jīng)失控的擔(dān)憂。
現(xiàn)年75歲的辛頓在神經(jīng)網(wǎng)絡(luò)領(lǐng)域長期從事開創(chuàng)性工作,為AI技術(shù)的發(fā)展奠定了基礎(chǔ)。在3月下旬那封聚集了1000多個簽名的公開信發(fā)布時,“深度學(xué)習(xí)三巨頭”、三位2018年圖靈獎得主表現(xiàn)各不相同。其中,蒙特利爾大學(xué)教授約書亞·本吉奧(Yoshua Bengio)高調(diào)簽名,臉書首席人工智能科學(xué)家、紐約大學(xué)教授楊立昆(Yann LeCun)旗幟鮮明地反對,身為谷歌副總裁的辛頓一言未發(fā)。
宣布離職谷歌后,辛頓公開表達了自己的觀點。他在接受《紐約時報》采訪時表示,相較于氣候變化,AI可能對人類的威脅“更緊迫”。他甚至表示,之所以離開谷歌,就是為了完全自由地說出AI潛在的風(fēng)險,向世人提出警示。在5月3日麻省理工技術(shù)評論舉行的一場半公開分享會上,辛頓坦言,過去他認為AI風(fēng)險是遙不可及的,“但現(xiàn)在我認為這是嚴重的,而且相當(dāng)近,但停止發(fā)展AI的想法太天真了。”
人類又一次陷入“科林格里奇困境”
人類歷史上,曾無數(shù)次因新技術(shù)的誕生而產(chǎn)生擔(dān)憂。比如,1863年瑞典化學(xué)家諾貝爾發(fā)明硝化甘油炸藥,1885年德國人卡爾·本茨和戴姆勒發(fā)明內(nèi)燃機汽車,20世紀40年代人類發(fā)明了原子彈……
辛頓如今對AI的情緒,與晚年時期的諾貝爾和愛因斯坦如出一轍。諾貝爾發(fā)明炸藥原本是為了提高開礦、修路等工程的效率,當(dāng)他發(fā)現(xiàn)自己的發(fā)明被投入到戰(zhàn)場上后,其自責(zé)達到了頂點,這也促使他后來創(chuàng)立了諾貝爾獎。
清華大學(xué)人工智能國際治理研究院副院長梁正認為,在新技術(shù)興起時,人類通常會面臨所謂的“科林格里奇困境”——技術(shù)尚未出現(xiàn),監(jiān)管者無法提前預(yù)測其影響并采取行動;而當(dāng)它已經(jīng)出現(xiàn)時,采取行動往往為時已晚或成本過高。
幸運的是,迄今為止,人類通過不斷適應(yīng)新技術(shù)的發(fā)展而調(diào)整治理手段,一次次走出了“科林格里奇困境”?!氨热缭谄嚧笠?guī)模上市前,人們就為其安裝上了剎車,之后也一直在完善汽車的安全性,為其提供各類檢測和認證,甚至在汽車發(fā)明100多年后,人們還在為其安全‘打補丁’——裝上安全氣囊?!绷赫f。
不過,他也承認,這一次AI的來勢洶洶似乎與以往有些不同,“速度太快了?!北热?#xff0c;訓(xùn)練了幾個月的ChatGPT的性能提升比過去幾年迭代都要快,這意味著生成式AI大模型可以在幾周內(nèi)將潛在風(fēng)險轉(zhuǎn)變?yōu)閷嵈骘L(fēng)險,進而對人類社會造成不可估量的影響。
另一個不同是,這一次我們似乎無從下手。辛頓坦言,對于氣候變化的風(fēng)險,人類可以提出一些有效的應(yīng)對策略,比如減少碳排放,“你相信這樣做,最終一切都會好起來的。但對于AI的風(fēng)險,你根本不知道如何下手?!?/p>
另外,商業(yè)競爭也會促使大模型一路“狂飆”。OpenAI深知GPT所蘊含的潛在風(fēng)險,盡管他們對外表示將審慎推進AI系統(tǒng)的研發(fā),但并不愿意就此暫停或徹底放慢腳步,而是期望社會為此做好準備。今年2月,這家公司剛剛公布了其發(fā)展通用AI的雄心與策略。而其首席執(zhí)行官山姆·阿爾特曼表示,通用AI在AI技術(shù)上只能算是一個小節(jié)點,他們的遠景目標(biāo)是創(chuàng)造出遠超人類智能的超級AI。
AI真的擁有人類智能了嗎?
AI失控的故事,一直出現(xiàn)在科幻小說中。在大模型出現(xiàn)前,人們也對AI保持了相當(dāng)警惕,但從未像今天一樣如臨大敵。那么,能識別出照片中的種種不合理、在各項考試中拿到高分、與人如沐春風(fēng)般對話的大模型,真的已經(jīng)擁有人類智能了嗎?
聯(lián)合國教科文組織AI倫理特設(shè)專家組專家、中國科學(xué)院自動化研究所AI倫理與治理中心主任曾毅認為,以ChatGPT為代表的大模型是“看似智能的信息處理”,與智能的本質(zhì)沒有關(guān)系。
“人們之所以覺得它很厲害,因為它的回答滿足了人們的需求,如果這些回答來自于一個人,你會覺得他太聰明了。但如果你跟它說‘我很不高興’,它說‘那我怎么能讓你高興一些’,這讓人覺得它似乎理解了情感,而實際上它只是建立了文本之間的關(guān)聯(lián)。”曾毅認為,目前的AI系統(tǒng)與人類智能的區(qū)別在于,大模型沒有“我”的概念,沒有自我就無法區(qū)分自我和他人,就無法換位思考,無法產(chǎn)生共情,也就無法真正理解情感。
清華瑞萊智慧科技有限公司AI治理研究院院長張偉強表示,當(dāng)前的大模型仍屬于第二代AI,其主要特征為以深度學(xué)習(xí)為技術(shù)、以數(shù)據(jù)驅(qū)動為模式。這使得它在決策鏈路和邏輯上具有天然的不確定性,即便是模型開發(fā)者,也無法準確預(yù)知模型的輸出結(jié)果。當(dāng)語言大模型“信口開河”時,不能認為是出現(xiàn)了所謂的“自我意識”,而僅僅是技術(shù)缺陷使然。
“計算能力當(dāng)然是智能的一種,但智能的范圍比這大得多,除了計算還有算計。”梁正說,如果把智能看作一個球體,阿爾法狗表現(xiàn)出的智力如同一個針尖般大小,大模型則是球體表面那一層,離真正的智慧內(nèi)核還差得遠。因此,許多技術(shù)派將ChatGPT視作某種“高科技鸚鵡”或人類知識庫的映射。他們并不認為情況已經(jīng)十分危急,因為與人類智能相比,大模型并沒有觸及認知的底層邏輯。
大模型真正的威脅在哪里?
我們應(yīng)該允許機器充斥信息渠道傳播謊言嗎?應(yīng)該將所有工作(包括那些讓人有成就感的工作)都自動化嗎?應(yīng)該去開發(fā)可能最終超越甚至取代我們的非人類智慧嗎?應(yīng)該冒文明失控的風(fēng)險嗎?細讀那封千人簽名支持的公開信不難發(fā)現(xiàn),業(yè)界大佬們并非為AI的智能即將超過人類而憂心忡忡,而是擔(dān)心AI將消解人類存在的意義,解構(gòu)人類社會的關(guān)系。
2017年,AI領(lǐng)域的重磅論文《一種采用自注意力機制的深度學(xué)習(xí)模型Transformer》發(fā)表,這個不到200行代碼的模型開啟了AI發(fā)展的新階段。原本分屬不同領(lǐng)域的計算機視覺、語音識別、圖像生成、自然語言處理等技術(shù)開始融合。在Transformer的模型下,工程師利用互聯(lián)網(wǎng)上的文本進行AI訓(xùn)練,訓(xùn)練方法是在一句話里刪除一些單詞,讓模型試著預(yù)測缺失的單詞或接下來的單詞。除了文本,此模型也可應(yīng)用于聲音和圖像。和單詞一樣,工程師可以將聲音和圖像分解成細小的模塊,并利用修補模型進行預(yù)測和填補。
“所謂生成式AI,通俗來說就是讓AI能夠像人類一樣說話、寫字、畫畫,甚至分析和理解問題。”張偉強說,基于這種“創(chuàng)作”能力,“人工”與“非人工”的邊界正在消弭,數(shù)字世界的信息真?zhèn)我苍絹碓诫y以辨識。目前,已有聊天機器人被用來生成針對性的網(wǎng)絡(luò)釣魚郵件。不久的將來,當(dāng)人們聽到或看到家人的聲音或圖像時,或許首先要問自己一個問題:這是真的嗎?畢竟,最新的AI技術(shù)只需3秒就能拷貝一個人的特征。
此外,生成式AI還帶來了其他新風(fēng)險的挑戰(zhàn)。張偉強舉例說,第一個風(fēng)險就是加深“信息繭房”。過去,當(dāng)我們搜索信息時,還能得到多種答案以供選擇。語言大模型則更像一個“繭房”,你將如同《楚門的世界》中的男主角,被動接受模型世界給你的信息。
大模型帶來的第二個新風(fēng)險是對創(chuàng)新動能的干擾。人類總是會在思考的過程中迸發(fā)靈感,在動手的過程中有所收獲,在不斷試錯的過程中走向成功,不少偉大的發(fā)明都是研究的“副產(chǎn)品”。而大模型提供了前往正確答案的直通車,人們將由此減少很多試錯機會。正如劉慈欣在科幻作品《鏡子》中描寫的一種人類“結(jié)局”,人類因為從不犯錯而走向滅亡。
我們?yōu)锳I“套籠頭”的速度并不慢
生成式AI的飛速發(fā)展,讓人類社會面臨著一場信任危機。當(dāng)網(wǎng)絡(luò)上充斥著越來越多不知真假的圖片和視頻,AI助手幾秒鐘就“洗”出了一篇像模像樣的稿件,大批學(xué)生開始用ChatGPT寫作業(yè)、寫論文,我們是否有信心用好生成式AI這個工具?
對此,梁正比較樂觀。他認為,新技術(shù)總是伴隨著風(fēng)險,而人類曾無數(shù)次處理過這種情況,因此不必太過擔(dān)心。在他看來,人類應(yīng)對這一波生成式AI的速度算得上及時。
去年11月30日,OpenAI推出ChatGPT。今年3月,英國政府發(fā)布了第一份AI白皮書,概述了AI治理的五項原則。3月底,意大利個人數(shù)據(jù)保護局(DPA)宣布從即日起禁止使用ChatGPT,限制OpenAI處理意大利用戶信息數(shù)據(jù),同時對其隱私安全問題立案調(diào)查。隨后,德國、法國、愛爾蘭等國家也開始準備效仿意大利的做法,加強對ChatGPT的監(jiān)管。
在生成式AI的立法方面,中國與歐盟基本同步。4月11日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布《生成式人工智能服務(wù)管理辦法(征求意見稿)》。梁正認為,《管理辦法》從三方面給生成式AI的發(fā)展戴上了“籠頭”:一是大模型的數(shù)據(jù)來源要可靠;二是對AI生成的內(nèi)容應(yīng)履行告知義務(wù);三是一旦造成損害,相關(guān)責(zé)任方需要承擔(dān)責(zé)任。他建議,對生成式AI實行分級分類管理。比如,對某些高風(fēng)險領(lǐng)域應(yīng)該謹慎或嚴格控制使用生成式AI,而對一般的辦公娛樂場合,只要標(biāo)注出AI生成內(nèi)容即可。
與其焦慮,不如用技術(shù)規(guī)制技術(shù)
如果把生成式AI比作“矛”,那么檢測其安全性的公司就是“盾”。目前,在全球范圍內(nèi),“盾”公司的數(shù)量并不多。由清華大學(xué)人工智能研究院孵化的瑞萊智慧(Real AI)就是一家“盾”公司,他們負責(zé)檢測內(nèi)容是否由AI生成,以及給大模型的安全系統(tǒng)“挑刺”。
“人類需要保持辨識信息真?zhèn)蔚哪芰?#xff0c;只要能識別出哪些內(nèi)容是AI生成的,并精準告知公眾,這項技術(shù)也沒有那么可怕?!睆垈娬f,目前他們研發(fā)了一套AI內(nèi)容識別系統(tǒng),在識別能力上處于國際領(lǐng)先。
比識別AI內(nèi)容更重要的,是彌補第二代AI本身的安全缺陷。張偉強解釋說,AI的“智力”提高后,需要視其為社會生活中的一位新參與者。但第二代AI本身的運算過程是個“黑箱”,相當(dāng)于你無法看透這位新伙伴的所思所想(可解釋性差),且他還極易被欺騙犯錯(魯棒性差)。至今在大模型中無法徹底解決的“幻覺”問題就是由此產(chǎn)生,即使數(shù)據(jù)來源準確可靠,但大模型仍可能會“一本正經(jīng)地胡說八道”。
不可否認,ChatGPT開啟了一場全球范圍的大模型“軍備競賽”,大廠紛紛發(fā)布各自的大模型系統(tǒng),不少小公司也推出了基于自身領(lǐng)域的“小模型”。張偉強表示,市場的充分競爭固然有利于行業(yè)快速發(fā)展,但其先天的安全不足同樣需要引起重視。比如,上個月,瑞萊智慧僅通過添加少量對抗樣本,就讓Meta發(fā)布的史上首個圖像分割模型SAM失靈,顯示出大模型在安全性方面仍然任重道遠。
梁正認為,未來,當(dāng)人們回望現(xiàn)在所經(jīng)歷的這個階段,會清晰認識到AI的工具屬性。為了保證它永遠只是工具,我們必須及時跟進它的動向,敏捷治理,就像歷史上人類曾經(jīng)一貫為之的那樣。
相關(guān)稿件