少即是多:LIMI 用 78 個樣本,重新定義智能體訓練效率
原創 精華
社區頭條 一、AI模型訓練的“數據幻覺”在人工智能領域,有一個近乎鐵律的共識:數據越多,模型越聰明。這條邏輯支撐了過去十年的AI爆發——從GPT到Claude,再到DeepSeek,所有巨頭都在堆算力、卷數據、拼參數。但當DeepSeek以130成本訓練出高性能模型后,這條鐵律開始動搖。如今,一篇來自LIMI團隊的新論文再次顛覆認知——他們僅用78個高質量訓練樣本,就讓模型在智能體評測中超越了使用10,000個樣本訓練的對手。是的,你沒看錯:128倍...