當前位置: 華文世界 > 科技

AI開閉源之爭,創新、利益、安全誰更重要

2024-03-25科技
本報記者 樊 巍 本報駐法國、德國特約記者 董 銘 青 木
開放還是封閉,這是個問題。「人工智慧(AI)公司都與它們的名字正相反。」3月24日,特斯拉CEO埃隆·馬斯克在社交平台X上這樣寫道,回復一條調侃「美國開放人工智慧研究中心(OpenAI)並不開放、美國AI企業‘穩定AI’(Stability AI)並不穩定」的帖文。自從馬斯克今年2月起訴OpenAI並於3月18日正式釋出旗下AI初創公司xAI的大模型Grok-1後,AI開源、閉源之爭再度升級,辯論不止存在於科技企業之間,更是引發全球各界人士的激烈爭論。有專家接受【環球時報】記者采訪時表示,僅選擇開閉源中任何一條路都將通向極端,更理想的狀態是在開源和閉源間尋求平衡,而實作這種平衡的前提需要兼顧技術發展、安全私密、公平競爭、市場秩序、社會責任、永續發展等多種復雜因素。
「馬斯克在與OpenAI的戰鬥中采取新策略」
據美國「商業內幕」網站報道,AI開閉源問題引發廣泛爭論,起始於馬斯克2月對ChatGPT制造商OpenAI及其CEO奧爾特曼等人的起訴。2015年,馬斯克同奧爾特曼等人共同創立了OpenAI,核心宗旨是「建立造福全人類的安全通用AI」,其定位也是「非營利組織」。但馬斯克2018年辭去了OpenAI董事會職務,並據稱放棄了為其繼續提供資金的承諾,奧爾特曼當時接受采訪表示:「這很艱難,我必須重新調整,以確保有足夠的資金。」2019年,OpenAI以「向公眾傳播語言模型太危險」為由封閉了原始碼。此後,馬斯克對OpenAI進行多次公開批評,稱其已變成一家閉源、利潤最大化的公司。他曾發文稱:「我很困惑,一家我捐贈了約1億美元的非營利組織是怎麽成為市值300億美元的營利組織的?」
在這些投訴上個月轉變為訴訟後,【華爾街日報】報道稱,風險投資界兩位重要人物在X平台上的「帖文之戰」更凸顯了AI開閉源兩派別的相反觀點。科斯拉風投公司創始人、被譽為全球「技術領域」投資之王的維諾德·科斯拉表達了對OpenAI的支持。他認為,AI「類似核武器」,開源會危及國家安全。美國一些議員也同意其觀點,認為開源會使外國對手得到發展,因此應受到保護。而安德森霍茨基金聯合創始人馬克·安德森稱:「開源軟體是最安全的軟體,因為受很多人關註,所以大量錯誤能被修復。」
對於馬斯克對Grok開源的舉動,法國【世界報】分析稱,這是「馬斯克在與OpenAI的戰鬥中采取新策略」,雖然他聲稱「以人類的名義」出擊,但實際上更多是為了自己的商業利益。報道強調,自稱開源支持者的馬斯克去年也對X平台的推薦演算法進行過開源,但此後再也沒有對程式碼進行過更新。清華大學新聞與傳播學院教授沈陽對【環球時報】記者表示,按照此前行動網際網路技術發展的邏輯,一般都會出現一家做得較好的閉源公司,隨後很多公司采取開源策略,搶占閉源之外的市場。雖然開源面向更多使用者,但閉源利潤更高。
越來越多公司「押註」開源
那麽AI開源和閉源有什麽區別?科技企業如何決定是否開源呢?根據IT專業媒體TechTarget的文章,開源AI意味著公開AI模型、訓練數據和底層程式碼,閉源AI則隱藏或保護其中一項或多項。開源AI鼓勵創新,可供公共領域的所有人使用、修改和分發,而閉源AI意味著原始碼僅供擁有它的公司修改和開發。
據科技網站「diginomica」去年底報道,非營利組織「開放原始碼促進會(OSI)」正努力為開源AI建立清晰的法律定義,目前相關草案對開源AI的判定標準包括是否免費或在合理成本內、原始碼是否完整、是否存在歧視或對其他軟體的授權限制等。目前幾乎沒有企業完全符合OSI的所有要求,即便是那些支持開源的公司也只是部份符合。
而企業選擇開源與否的考量因素有很多。首先,閉源AI往往速度更快且使用更方便。此外,一些科技公司高管表示,閉源AI能夠帶來更短的開發周期和更大的商業利益,模型的安全效能得到更好的保障,企業在創新商業化方面也能保持優勢。而開源AI有利於促進協作、創新和透明度,開發人員可以互相學習並共同解決問題,這可以幫助企業吸引開發人員。此外,開源AI也意味著可以對底層程式碼、模型和數據進行更嚴格的審查。但與閉源的優勢相對,開源AI也面臨著更容易被黑客、犯罪分子或對手誤用或濫用的風險,也更難保護開發者的智慧財產權和有利競爭。
據【華爾街日報】報道,隨著AI市場圍繞微軟、OpenAI等閉源系統所有者整合,一些公司試圖透過開源增強競爭力。除馬斯克的xAI外,開源的支持者還包括Facebook母公司Meta,該公司去年7月釋出了Llama 2模型供公眾下載和修改。Meta還與同為開源支持者的美國國際商業機器公司(IBM)發起「人工智慧聯盟」,倡導「開放科學」,參與者包括數十家初創企業、大公司和非營利組織,如戴爾、索尼、甲骨文、英特爾等。法國AI初創公司Mistral AI去年底釋出了具有開放權重的模型,這意味著將構成模型內部工作原理的重要參數公開。許多其他初創公司也都「押註」開源,包括法美合資企業Hugging Face,它曾推出ChatGPT的第一個開源替代品HuggingChat。一些資金較為雄厚的公司也曾開源同類產品,比如美國芯片制造公司Cerebras(開源Cerebras-GPT)、美國軟體公司Databricks(開源Dolly)等。
與之相對的是,業界最大的AI公司OpenAI及其「勁敵」Anthropic都支持閉源。如ChatGPT、Anthropic的Claude、舊金山獨立研究團隊開發的文本到影像生成器Midjourney等都不是開源模型。
不過,從實際做法來看,「兩條腿走路」是目前大部份公司的選擇,即構建一系列AI模型,其中一些是免費的,而功能更強大的另一些則需要付費。比如谷歌,上個月推出了開源模型Gemma,標誌著其過去決心閉源後再次重返開源賽場的策略轉變;微軟雖然以閉源軟體聞名,但它仍是世界上開源計畫的主要貢獻者之一,包括Azure SDK等。而上文提到的開源支持者Mistral AI,上個月也宣布與微軟合作,推出更強大的閉源AI系統,客戶必須付費才能使用。知名初創公司Stability AI曾與AI初創公司Runway共同構建開源影像生成模型Stable Diffusion,但該公司去年12月也開始對其部份先進模型的商業用途收費。
表面談「技術民主化」,利潤和安全才是重中之重
法國AI公司Giskard聯合創始人兼CEO亞歷斯·康貝西表示:「開源有助於實作技術民主化,有利於公平競爭,因為可以免費獲得產品,所以小玩家也可以與大玩家競爭,這很重要,尤其是在一個已經由技術壟斷主導的世界裏。」不過,「歐洲新聞網」分析認為:「開源和閉源兩個陣營的企業正展開對決,雖然技術民主化是辯論的核心,但企業利潤和國家安全才是戰鬥的重中之重。」
由於AI行業的爆炸式發展,在帶來巨額利潤的同時,也引發了對偏見、私密、國家安全甚至人類未來的擔憂。盡管從技術上說,開原始碼可以加入保護措施和責任條款,以打擊濫用和歧視,可一旦有人生成了程式碼副本,這些保護措施都可以被輕松修改和繞過。比如Meta釋出的Llama 2,開源幾天後就有人釋出了無需稽核的副本,它可以隨意回答「核彈是如何制造的」等危險問題。
TechTarget網站刊文分析稱,關於該選擇開閉源哪條路的爭論越來越激烈,兩派的主要參與者往往態度十分強硬,尤其一些監管機構因為擔心開源會為政治對手帶來優勢而堅決反對開源。隨著各國政府努力制定AI相關規則和政策,這種擔憂正轉化為國家層面的行動。比如義大利政府早在去年3月就成為第一個禁用ChatGPT的西方國家,在解決了私密擔憂後才恢復存取。
美聯社日前報道稱,拜登政府正卷入一場關於AI系統應該開源還是閉源的爭論。去年9月,美國國家安全域宣布設立人工智慧資訊安全中心。同年10月,美國總統拜登簽署行政命令稱,開放權重「可能會給創新帶來巨大好處,但也會帶來巨大安全風險」。今年2月,美國政府出資委托有關機構撰寫報告稱,必須「迅速且果斷地」采取行動,以避免AI帶來「重大國家安全風險」,甚至在最壞的情況下,AI可能「對人類造成滅絕級別的威脅」。拜登還要求美國商務部長雷蒙多在今年7月之前與專家進行交談,並就如何管理AI潛在風險提出建議。
北京郵電大學人機互動與認知工程實驗室主任劉偉對【環球時報】記者分析稱,未來哪種技術路徑會成為主流,目前還難以判斷,因為這不僅涉及技術問題,更重要的是還涉及政治問題。比如美國與其盟友間非技術層面的協同會起到很大作用。從長遠來看,各國在開閉源問題的選擇上將呈現多樣化趨勢,這將取決於各國的文化、政治、經濟等因素。廣大開發中國家以及美國盟國範圍之外的國家目前對開源期望值較高,但技術強國為了自身利益和保護核心技術,常常會以商業競爭和安全私密保護為由拒絕開放。
開閉源爭論,歐洲和美國的重要摩擦點
德國【法蘭克福匯報】報道稱,AI開閉源爭論一直是歐洲和美國監管機構的重要摩擦點。歐洲擁有一個獨特的機會,可以將自己定位為「對抗美國巨頭及其封閉模式」的力量,並透過AI開源發揮出巨大的區域優勢。
據英國廣播公司(BBC)報道,歐洲議會3月13日正式投票透過【人工智慧法案】,歐盟成為目前唯一一個采取具體措施監管AI的主要西方經濟體。雖然英國去年11月主辦了一次AI安全峰會,但並未推出AI監管相關立法。
【人工智慧法案】的運作方式是根據風險級別對產品進行分類並相應地調整審查。該法案還要求通用AI系統生產者對用於訓練模型的材料保持透明,並遵守歐盟版權法。歐洲議會議員圖多拉奇表示,這是整個法案中「遊說最激烈」的部份。報道稱,OpenAI、Stability AI等公司都將對如何遵守該法案展開研究。
此外,【人工智慧法案】還規定,一系列嚴格的監管措施將不適用於開源AI系統,除非它們被禁止或被歸類為「高風險」或「不可接受風險」級別。據法媒報道,這種對開源AI的豁免對法德來說是好訊息,因為這兩個國家一直倡導保護新的開源AI公司,這種做法與美國形成鮮明對比。德媒報道稱,開源AI具有重要意義,可以「為歐盟每年貢獻650億至950億歐元的國內生產毛額」,並將「為歐洲經濟創造增長機會」。
不過,美國智庫數據創新中心近日刊文稱,【人工智慧法案】為開源AI帶來了「監管復雜性」。文章分析稱,該法案對開源AI的豁免有很多限制條件,比如有些豁免僅適用於不將AI產品進行貨幣化的情況,所以如果公司試圖透過為開源模型提供付費技術支持或使用定向廣告來收取費用,都將無法適用。
劉偉對【環球時報】記者表示,【人工智慧法案】肯定會對開源AI產生較大影響。但該法案本質上是借「讓AI更符合人類主流價值」這種冠冕堂皇的理由來保護歐洲自身發展。現在有種說法是,在AI領域,美國人創新很快,中國人落地套用很快,歐洲這兩項趕不上,只能在監管上發力。雖然透明度監控、風險評估、分級制度、數據私密等也都是未來AI發展的重要方面,但不排除歐洲會以此為由制約中美。
在劉偉看來,長期開源會使不可控因素增多,但如果都閉源、奉行保守主義,AI技術發展則會滯後。理想狀態是在開閉源間尋求平衡,而前提是保證技術創新和發展的同時,能兼顧安全私密、公平競爭、市場秩序、社會責任和永續發展。如果一味地強調開源或閉源,是在將這個問題簡單化。▲