美國知名企業(yè)家埃隆·馬斯克近日宣稱,到2025年或2026年,AI(人工智能)可能比最聰明的人類還要聰明。這個預測讓不少人驚詫:具備與人類同等智能甚至超越人類智能的AGI(通用人工智能),已經(jīng)近在眼前了嗎?
前幾年,大多數(shù)科學家們對AGI的預期還是幾十年乃至上百年后才能實現(xiàn)。近一年半以來,美國人工智能公司OpenAI在大模型方面的巨大成功,讓不少樂觀的業(yè)內(nèi)人士把AGI實現(xiàn)時間表縮減到5年至10年。馬斯克的2年之期,很明顯是一個更為激進的預測。從人工智能發(fā)展現(xiàn)狀看,阻滯AGI實現(xiàn)的因素至少有一大瓶頸和兩大風險。
一大瓶頸是能源瓶頸。風頭正盛的人工智能大模型,目前還處于“大力出奇跡”階段,依靠算力堆積實現(xiàn)智能涌現(xiàn)。2020年,最強的大模型算力需求達到每秒浮點運算次數(shù)10的23次方量級;到2024年,最強的大模型預訓練算力需求已達到每秒10的26次方浮點運算量級,并繼續(xù)按算力需求每3個月到4個月翻番的規(guī)律發(fā)展。算力密集意味著能量密集。據(jù)外媒報道,OpenAI的ChatGPT聊天機器人每天消耗的電力超過50萬千瓦時,用于處理約2億個用戶請求,相當于美國一個普通家庭每天用電量的1.7萬多倍。與這樣巨大的能耗相比,一個成年人的大腦功率僅約20瓦,低能耗優(yōu)點十分突出。從能耗看,人工智能要達到人類智能水平還有很大差距,以至于有些專家寄希望于未來可控核聚變技術(shù)突破帶來的“能源自由”,也有些專家寄希望于芯片和算法的突飛猛進,這二者的突破顯然都是短期內(nèi)難以做到的。
兩大風險是商業(yè)風險和安全風險。
從商業(yè)風險看,對人工智能大模型的投資面臨著“賠本賺吆喝”的質(zhì)疑,增速難以持續(xù),這有可能會影響人工智能的迭代速度。比如,一家美國公司的大模型產(chǎn)品向用戶收取10美元月費或100美元年費,但因為服務(wù)成本高,需要每個月為每個用戶“倒貼”20美元。研究機構(gòu)CB Insights發(fā)布的《2023年人工智能(AI)行業(yè)現(xiàn)狀報告》顯示,2023年,全球AI初創(chuàng)公司融資總額約為425億美元,比2022年的473億美元下降10%。大模型創(chuàng)業(yè)公司估值高、缺乏明確商業(yè)化路徑,已經(jīng)勸退了不少風險投資者。當前,雖然大量資金仍在涌向大模型,但燒錢如流水的“煉大模型”成本,也讓大模型的商業(yè)變現(xiàn)需求愈加急切。
從安全風險看,當前人工智能技術(shù)快速發(fā)展,在給世界帶來巨大機遇的同時,也帶來了難以預知的風險和復雜的挑戰(zhàn)。要確保人工智能始終處于人類控制之下,打造可審核、可監(jiān)督、可追溯、可信賴的人工智能技術(shù),顯然不是讓人工智能不受約束地發(fā)展越快越好,而是需要堅持“科技向善”的倫理先行,建立并完善人工智能倫理準則、規(guī)范及問責機制。人工智能治理關(guān)乎全人類命運,是世界各國面臨的共同課題,因此人工智能規(guī)則制定也不能由少數(shù)發(fā)達國家說了算,而是要推動構(gòu)建公平、公正的人工智能國際治理體系。
人工智能或許終有一天將超過人類,無論那一天是遠還是近,人類都要做好迎接挑戰(zhàn)的準備。?(本文來源:經(jīng)濟日報 作者:佘惠敏)
相關(guān)稿件