來源:人民日報
想象未來某天,你的保姆機器人接到下樓買咖啡的指令,自主完成開門、乘坐電梯、尋找便利商店、取咖啡、付錢等一連串動作,最後將咖啡遞到你手裏。
這不是科幻電影,而是具有自主前進演化能力的AI智慧體帶來的可能——不再局限於在固定場景裏完成特定動作,而是能像人類一樣在陌生環境裏「自主學習」,並根據場景變化做出相應的動作。
作為人工智慧最主要的載體,智慧體由硬體、軟體等多種要素組成,能夠感知周圍環境,並根據自身所處環境做出判斷和決策。在我們的日常生活中,一輛輔助駕駛的汽車是智慧體,可以根據路況自主地踩油門或者剎車;家裏的掃地機器人也是智慧體,能辨識地板上是紙屑果皮還是灰塵,並選擇合適的清潔方式。
實際上,智慧體並非向來智慧,它們的前進演化史就像一個人的成長史。早期,智慧體只會「死記硬背」。例如,1997年擊敗西洋棋冠軍的超級電腦「深藍」,其實是儲存了幾十萬局棋譜的「復讀機」,遇到規則外的招式就會卡殼。2014年,谷歌研發的AlphaGo開啟了「思維訓練」的模式,智慧體開始透過自我學習提升自身能力,並逐漸進階為某個專項領域的高手。2022年,以ChatGPT為代表的大語言模型橫空出世,標誌著智慧體發展出較高的智慧水平。例如,借助AI大模型破譯甲骨文時,它會自主調取青銅器紋樣資料庫來「腦補」生僻字的字義,甚至根據上下文的意思「創造」新字元。
與智慧體前進演化相對應的,是智慧體訓練方法的變化。
AI大模型依賴於人工收集的數據進行訓練。「投餵」給它們什麽訓練數據,就學習什麽知識。例如,給它們提供100萬張貓和狗的影像,並且標註清楚哪些是貓、哪些是狗,經過長時間的訓練,它們就能很好地分辨貓和狗,但對於沒見過的動物依然無法辨識。
而下一代智慧體將具備自主學習的能力——透過觀察這個世界、和周圍的環境互動,來學習各種技能。不需要收集和標註好100萬張影像,只用幾張影像教會它們最基本的知識,它們就可以自己學習更豐富的知識。例如,如果想教智慧體騎自由車,只需要示範一次,它就會自己嘗試不同的騎行動作,並不斷試錯,最終學會騎行的技巧。這意味著下一代智慧體將在自主性和適應力方面更上一個台階,能夠主動獲取資訊,進行資訊加工,然後分解任務、完成任務。
基於這種方式,若幹年後的智慧體或將徹底融入我們的生活:廚房裏,智慧竈台不僅能烹飪美味佳肴,還能記住你的口味偏好;醫院裏,AI醫生為病人診斷出病癥,帶著「客製方案」找主刀醫生討論……
不過眼下,智慧體的發展還遠未達到人們所期望的「耳聰目明、心靈手巧」,它們只能在固定場景中完成特定任務,並不具備跨場景完成任務的能力:一個智慧體可以為汽車擰螺絲,但換成輪船可能就做不到了;可以在平地上翩翩起舞,但換成山路也許就「四肢不協調」了。因此,「跨任務、跨場景、跨本體」是下一代智慧體的發展目標。
隨著人工智慧從數位世界走向物理世界,智慧體的可信性變得愈發重要。在智慧體技術不斷發展的過程中,我們始終需要守護「技術進步須服務於人性溫暖」的文明底線,從源頭上界定其行為邊界與倫理規範。
(吳祖煊 作者為復旦大學智慧機器人與先進制造創新學院副院長,本報記者黃曉慧采訪整理)
【人民日報】(2025年05月10日第06版)