開源模型,是全村希望還是智商稅? 原創
嘉賓 | 郭煒、沈旸、程戈
主持 | 薛彥澤
整理 | 李美涵
大模型的場域,被開閉源自動地劃分為兩個陣營。自此,開閉源之爭的硝煙一直盤旋在大模型的上空。
從奧特曼頗為無力的辯稱:OpenAI的Open指的是人工智能成果的廣泛共享,而非模型的開源。到李彥宏直截了當的斷言:開源模型可能是一種“智商稅”,隨著時間的推移,開源模型只會越來越落后。開源模型在商業模式上的斷裂及性能的落后一直飽受詬病。
然而,Llama 3.1的橫空出世給開源注入了強心劑。有人說,Meta的持續開源是對開源唱衰論的最有力反擊。周鴻祎也站出來說,大模型不該淪為少數廠家的賺錢工具。
為了能挖掘這場開閉源之爭的更多細節,AIGC實戰派邀請了白鯨開源CEO 郭煒、前神碼CIO 沈旸以及湖南國家應用數學中心副主任程戈,深入探討了“為什么市面上頭部AI產品依賴閉源大模型?”“開源是不是比閉源的成本更高”等話題,力圖厘清開閉源之爭的這一爭鋒點——開源大模型,到底是全村的希望,還是智商稅?
以下是訪談要點:
?Meta的開源策略,其主要目的是搶奪信息入口,而非商業授權帶來的收入。開源模型可能有后勁不足的問題。
?當前大模型的參數還不夠大。如果以人腦的神經元作為參考,能實現AGI的大模型,其參數規模可能需要達到萬億甚至十萬億級別。
?開源的商業模式尚未成熟。對于To C的AI產品來說,模型性能的微弱差異都可能會影響到最終的用戶體驗。
?開源模型所要求的微調、部署等額外成本,只有能從壟斷性的行業中收回時才合理,所以適合醫療、金融領域的B端客戶。
?開源大模型的size一定是有體量限制的,考慮到企業部署和運行模型的成本,估計開源的“爆點”將在100B左右大小誕生。
?目前的開源模型還不是真開源,無法調動整個社區的力量。開源的核心在于改動能夠被貢獻回上游,從而一起打造更強大的工具。
經過整理的采訪內容如下。
1.開源頂流“剛”得過GPT-4o ?
薛彥澤:最近Meta公司開源的Llama 3.1 405B的模型能不能剛得過GPT-4o?模型的實力究竟是怎樣的,如此龐大的體量會不會在實際部署時遇到挑戰?
沈旸: 我們看到這個參數的時候,就放棄部署了,知道肯定跑不起來。不過,我認為這個size的商業化潛力很大。如果是一個7B參數的小模型,企業很容易完成私有部署,模型廠商很難賺到錢。但對于405B這樣size的模型,一般企業很難搞定,必須要借助云服務,這是一條重要的營收來源。
程戈:Llama和GPT,商業邏輯是不一樣的。Meta的開源策略是出于對流量入口的爭奪,就像移動互聯網的時代,安卓通過開源以對抗蘋果一樣。
每當Meta開源新的模型,股價就會上揚,這說明資本對其商業策略是認可的。但Meta是否真的能達到其商業目的,我是會畫個問號的,對B端用戶來說,開源模型可能無法完全保證其數據安全;對C端流量來說,Meta是否能夠通過吸引用戶并將模型封裝成優質產品,還有待觀察。
值得注意的是,與移動互聯網時代不同,大模型作為后臺服務,API的切換相對容易,用戶和服務商粘性不強。所以我擔心我對Meta的開源策略可能后勁不足,我想他們主要目的還是搶占信息入口,而非商業授權帶來的收入。
郭煒:我自己搞開源10多年了,據我觀察,開源項目的成熟一般需要三到五年的時間。現在就斷言大模型的開源項目能不能打敗GPT-4o可能為時尚早。
首先,大模型的熱潮雖然讓Llama等開源模型廣為人知,但它們的產品形態和未來方向實際上還未確定。其次,我不認為大模型本身是一個產品,我覺得它更像是數據庫這樣的基礎組件。不同的模型可以類比為Oracle、Postgres或MySQL——它們本身并不直接解決業務問題,而是作為構建其他應用的基礎。
薛彥澤:那我們再往上一層說,開閉源生態,目前各處于什么樣的狀態,哪個可能更占優一點?
郭煒:我說一個跟大家稍微不一樣的觀點,我認為大模型本身不那么重要,誰掌握數據才重要。模型跑分高不代表在實際的應用場景中能滿足用戶的需求。
為什么手機百度里的AI搜索助手使用頻率那么高,能以80%到90%的準確率快速回答問題,就是因為有百度的數據加持,讓你快速獲得你需要的數據,豆包和元寶的優勢也在于此。
程戈: 我想補充一下具身智能領域的信息,在這方面我覺得開源的市場會更好一些。具身智能如果要實現離線功能,必然需要在開源基礎上進行開發,并對模型進行精簡,使其體量足夠小,能完成家政等特定場景中的任務就可以。
開源生態的話,已經在運動規劃方面公開了權重,無需再付出預訓練的成本,只要去做微調就可以了,能夠很好的降低成本。
2.“模型先變小,才能繼續變大”?
薛彥澤:現在AI領域有個論斷說,“模型必須先變小,才能繼續變大”,老師們怎么看這條規律?
郭煒:不能說這個規律不對哈。但是,大和小是模型的兩個不同層次,是并行的,本質是取決于不同的應用場景。
我還是以數據庫的發展舉例,在早期,大家做數據庫也是拼命做大。像IBM的DB2這樣的大型數據庫可能需要占據整個房間,而隨著技術的進步,它們逐漸縮小到機柜甚至單個服務器的規模。同時,也出現
了針對特定場景優化的小型數據庫,比如運行在手機或電腦中的數據庫。
我覺得大模型的發展也會是雙向的,而不是所謂的“先后”。解決通用問題還是需要大模型,具體到一個具體問題,例如智能眼鏡的日常交互,一定是小模型更合適。
薛彥澤:更大模型的推出速度好像在放緩,比如GPT-5的延期。
郭煒:大模型的迭代速度慢。然而,LLM領域的“軍備競賽”尚未結束,后面肯定還有更大的模型。
薛彥澤:回到這個論斷本身,是否暗示了現在的大模型訓練遇到了數據、算力等方面的瓶頸,需要采取蒸餾等方法先得到小模型,才能繼續發展?
沈旸: 我覺得模型當前的參數還不夠大。如果以人腦的1000億個神經元作為參考,現有的AI模型參數量與之相比還相差甚遠。如果AGI能做到在各種任務上超越人類,參數規模可能需要達到萬億甚至十萬億級別。
在達到這樣的規模之前,我們都在探索AI大模型的天花板。因為transformer架構是個概率模型,只有當我們觸及到這個極限,等那時我們才會考慮通過蒸餾等方法來縮小模型規模,看是否能夠在減少參數的同時保持或提升性能。
例如下一次發的4050B模型,跑分只比405B高一分,這個時候就應該考慮往小里做了。總的來說,這還是一個探索的階段,未知空間還很大。
有關數據的問題,我個人感受是數據還遠遠沒有耗盡。目前大模型學到的都是表面的知識,就像三體人學習人類一樣。經過篩選的數據,使得模型都是中立的“偉光正”。就像今天的這場直播,我們會有觀點的沖突,之后才有討論、說服和決策,但目前的大模型還沒有允許被“喂”不同立場或者是“人格”的語料。
程戈: 參數規模,主要是兩個原因決定的。我們說的“智能涌現”,是說隨著參數擴大,模型的性能線性提升,但到達某一點后,性能提升會非常快。然而,如果要再進一步,則需要更高質量的數據。而目前,帶來的信息增益是最多的數據已經消耗的差不多了。
其次,多模態數據的引入雖然帶來了參數規模的增長。然而,視覺數據跟自然語言數據相比,噪聲太多。在這種情況下,單純增加參數規模帶來的成本收益比將逐漸降低,因此我們可能不會繼續盲目增加參數規模。另外,端側推理的需求也影響了模型規模,在本地能run的模型隱私性更好,這使得現階段小模型的涌現和流行成為自然。
3.頭部產品依賴閉源模型?
薛彥澤:現在AI的頭部產品,幾乎都是依賴閉源大模型的。開源模型是不是主要面向B端和學術側?為什么會出現這種現象?
郭煒:閉源大模型已經有了自己的商業模式。而開源在這方面還未成熟,可能需要三到五年的時間,才能真正進入良性的生長周期。
以安卓為類比,它也是做了很多年才開始有收入的。
目前,閉源模型在To C領域用的更多,因為它們有流量,能夠吸引投資人,獲得大量的資金支持。而開源模型雖然在To B上有所應用,但不如前者廣泛。在To B領域,場景適配的重要性遠超過模型本身的性能。許多海外的SaaS服務,仍然在調用閉源模型的API。因為開源模型還需要自行部署、訓練和優化,這對于企業來說是額外的投入。
沈旸:目前為什么閉源模型更受歡迎呢,我覺得可以從以下幾種商業情景考慮:
首先,對于想做初期POC(概念驗證)或企業內部應用來說,使用閉源模型的成本非常低廉。大模型云調用的方式省去了硬件成本,通過按需付費(如按token計費)方式即可。
其次,對于目標是做到頭部AI應用的用戶來說,為了追求效率和性能,也會傾向于采用閉源模型。
最后,就是我剛才提到的,開源模型一定是個“偉光正”的大模型,這使得AI在內容上有過濾,可能在商業效果上打折扣。
如果要說開源大模型的未來,我覺得關鍵在大型企業出于數據安全考慮,必須進行本地部署的情況。然而,在這種情況下,模型的size一定是有體量限制的,要能兼顧模型的運行和成本等問題,我估計范圍在100B左右。
程戈: 我覺得這是模型不同的商業模式所決定的。在C端市場,即使是細微的性能差距也會在客戶體驗中被放大,導致使用開源模型的產品在商業競爭中處于劣勢。
設想一個B端企業采用開源模型,其競爭對手使用閉源,模型之間可能只有5%到10%的效果差距。但對一般用戶來說,他們并不關心這一點點差距,因此用戶體驗成為了競爭的關鍵。只有當開源模型的能力達到與閉源模型相似的水平時,中間廠商才會采用并提供給中小開發者使用。
為什么是現在大家看到開源在B端和學術界受歡迎?B端是因為許多行業的競爭能力來源于其私有數據,為了保護商業利益,哪怕性能遜色些,也不得不用開源。而學術界的研究和實驗需要,與閉源模型的黑盒特性間不適配,不滿足學術研究的透明度和可復現性。
4.使用開源模型,成本未必低于閉源?
薛彥澤: 接下來我們聊聊開源模型的成本,因為還需要投入人力做微調,在實際的生產環境中也許不如閉源更經濟?
沈旸:開源之所以貴,就是大家想去做微調,只要你放棄了這個想法,它的使用成本是極其低的。
例如,如果你想將一個通用的開源大模型調整為特定于金融領域的模型,這非常難,更好的做法是等待金融領域的大企業把這個模型開源出來。盡量不要自己做微調,更為經濟高效。
薛彥澤:但開源模型的價值不就在于大家可以自己做微調和訓練嗎?
郭煒:做個比喻,我就覺得開源模型比作一個中專生,它可能不如閉源模型那樣已經達到大專生的水平,但開源模型的優勢在于它的可塑性。你可以通過微調來教授它專業知識,或者通過規則來指導它,使其適應特定領域的應用。
然而,無論采用哪種方式,開源模型使用的時間成本一定是大于閉源模型的。如果你想在短期內做一個產品,使用閉源模型是必然的。說實話,目前的開源大模型是愛好者,前輩級大企業的玩具,普通企業很難入場去用。
薛彥澤: 如果程老師做一款AI產品,會選擇開源還是閉源?
程戈:開源跟閉源的選擇,它跟最終的產品形態是相關的,而不是簡單的根據To B 還是To C來決定。
如果我面向的是行業用戶,例如醫療領域,我會選擇開源模型。因為在這種情況下,我積累的醫療數據是行業內的競爭優勢,而其他醫療巨頭把模型開源的概率非常小,因為這不符合他們的商業利益。因此,我會將開源模型與我的領域特定場景和數據結合起來。
但如果我的產品是基于一個創意idea,只是用大模型來為C端用戶提供增值服務,那么我選閉源。開源模型雖然省去了預訓練成本,但增加了微調、推理及維護的成本。這些額外成本只有能從行業壟斷性或競爭力中收回時才合理。
5.開源模型,是全村希望還是智商稅?
薛彥澤: 李彥宏近日提出“開源模型都是智商稅”,包括月之暗面的楊植麟也說開源只是To B的拓客手段,怎么看?
郭煒:用剛才的比喻來說,現在的開閉源放在一起比,就是用安卓1.0對打iPhone 3GS,現在看著開源模型還比較弱,將來誰贏誰輸尚未可知。
但我倒是不同意將開源模型粗暴地當做"智商稅"。開源模型,盡管沒有經過商業化打磨,但有可能像早期的安卓系統那樣,擁有活躍的社區和多方參與,能夠快速迭代和改進。
問題是,現在開源模型我覺得不是真開源。真正的開源是能夠獲得正反饋的,應該包括代碼、數據和訓練方法的全面開放,允許用戶發現問題并做出貢獻。現在開源模型不是這樣的,缺少數據和訓練方法的開放,無法獲得實質性的反饋和改進。
我和阿帕奇基金會成員討論過,了解到開源模型的標準正在制定。只有當這些標準確立后,我們才能深入討論什么是開源模型。此外,盡管有些企業基于開源模型進行開發,但這些改動往往無法反饋到原始模型中,這限制了開源社區的健康發展。開源的核心在于改動能夠被貢獻回上游,從而一起打造更強大的工具。而現在的開源大模型還只是一個分發渠道。
沈旸:首先來說,李彥宏說“開源模型都是智商稅”的時候,一定是有其特定背景的。當時提出這一觀點時,國內還沒有出現70B參數級別的開源大模型,當時開源模型的性能與閉源模型相比差距很大,幾乎無法使用。因此,很多公司對開源模型進行一些簡單的改造,然后提供給企業,這可能是他所批評的行為。
但以今天的情況看,這一觀點已經不再成立。無論是國內70B參數的模型,還是如405B這樣的模型,性能已經非常接近閉源模型,推理成本也相差無幾。
至于未來誰更強大,我認為這與開源或閉源沒有直接關系,而是看誰砸的錢更多。例如,如果Meta 能投入100億美元,而百度只能投入10億美元,那么投入更多的公司無論是開源還是閉源,其模型性能都會很強。
目前,無論是百度、阿里、Meta還是其他公司,都不是以AI或大模型作為主要營收來源。如果依賴這些作為主要營收,我覺得沒有一家公司能活得下去。
程戈:李彥宏的觀點有一定的道理,特別是在當時國內出現了所謂的千模大戰,以及許多基于開源模型的小規模微調產品,這些產品在性能上很難超越閉源模型。
不過,周鴻祎說大模型不應該成為少數廠商的賺錢工具,我也同意這個看法。歸根到底,這和他們各自的商業模式有關系。
現在,不同企業根據自身的優勢進行差異化競爭。例如,百度利用其在搜索領域的數據積累,而其他公司比如字節則可能利用自己強大的內容生產生態。這些企業都在走差異化路線,借助自己在生態上的積累,讓AI的價值最大化。
不過,市場上的通用大模型最終不會容下太多競爭者——就像手機操作系統一樣,市場最終只會留下少數幾家。這將是一個自然選擇的過程,由市場決定哪些模型能夠生存下來。
本文轉載自??51CTO技術棧??,作者:李美涵

















