天才應當是被允許不諳世事的。孤獨到死是一個天才最好的歸宿,畢竟,他所處的那個時代配不上他。維特根斯坦就是這樣一位天才。一、維特根斯坦:語言是事實的邏輯圖像維特根斯坦是通過《邏輯哲學論》走入哲學的。《邏輯哲學論》的核心命題,是一種“邏輯幾何學”的世界觀:世界是事實的總和,而非事物的總和。維特根斯坦提出“意義圖像理論”:每個命題是一個事實的圖像,命題與事實共享相同的邏輯形式,因而命題能夠以結構映射...
2025-10-20 07:45:42 946瀏覽 0點贊 0回復 0收藏
最近,關于AgenticAI具備自主行動能力的智能體的討論越來越多。很多企業都在探索:能不能讓AI自動處理客戶請求、下單采購、生成報告,甚至做決策?但《CIO》的一篇文章【文獻1】提醒我們:如果沒有上下文,AgenticAI將徹底搞砸你的業務。同時,Anthropic工程團隊的另一篇文章【文獻2】則從工程實踐角度指出:如何管理上下文(ContextEngineering),決定了AIAgent的成敗。兩篇文章結合起來,既指出了風險,也給出了路徑。一、為...
2025-10-16 07:12:03 1059瀏覽 0點贊 0回復 0收藏
OpenAI正在成為AI時代的“Windows”。Ben認為,OpenAI正通過構建底層平臺、控制接口與生態,把自己定位成新一代計算架構的操作系統。這一觀察精準,但筆者感覺不夠全面。Ben聚焦于“操作系統化”的技術與平臺路徑,卻忽視了另一個更具顛覆性的層面:OpenAI不僅在控制硬件與算力,更在重塑信息、關系與交易三大社會結構。一、從“操作系統”到“社會系統”Ben的核心論點非常清晰:ChatGPT是新操作系統的“桌面”;插件生態是新一...
2025-10-13 07:12:27 1014瀏覽 0點贊 0回復 0收藏
好久沒有見到時間序列預測方向大的突破了,部分可能歸因于兩點:1.現有方法能力已被推至極限;2.所預測對象本身內生的隨機性。近日Nature上有學者提出未來引導學習(FutureGuidedLearning,FGL),引入“未來信息”動態反饋機制,在多個任務中顯著提升預測性能。核心機制FGL由兩個模型構成:檢測模型(FutureModelTeacher),利用未來時間窗口的數據判斷關鍵事件是否會發生。預測模型(PredictiveModelStudent),依賴歷史與當前...
2025-10-13 07:12:01 2211瀏覽 0點贊 0回復 0收藏
架構變化V3.2Exp在V3.1Terminus的基礎上,模型架構引入稀疏注意力DSA,核心由兩部分組成:LightningIndexer:輕量化索引器計算query與歷史token的相似度分數,選出前k個最相關的token。TopkTokenSelection:基于索引分數只保留少量關鍵KeyValue對,再進行注意力計算。訓練方法持續預訓練,凍結主模型,僅訓練索引器,使其分布對齊原始注意力分布。啟用稀疏選擇機制,優化主模型+索引器。后訓練專家蒸餾,先針對數學、編程、邏輯...
2025-09-30 06:44:49 4636瀏覽 0點贊 0回復 0收藏
目的:在可機制化(mechanistic)的框架下解釋“主觀意識/主觀體驗”是什么,以及它是如何在大腦中產生的。作者希望意識不僅是哲學上的概念,也能提出具體可檢驗的假設和實驗證據。一、注意力模式理論注意力是什么注意力是指,眾多進入大腦的信號之間存在競爭,在這個競爭中,有些信號被“選擇”以獲得更多處理資源。這個過程包括自下而上(刺激驅動的顯著性)和自上而下(目標、任務、意圖導向的控制)機制。意識/主觀體驗是...
2025-09-19 07:53:21 2107瀏覽 0點贊 0回復 0收藏
針對OpenAI剛剛發布《為什么語言模型會產生幻覺》的論文【文獻1】,與筆者2023年9月對大模型幻覺的分析大模型的幻覺,解鈴還須系鈴人,筆者請GPT5做了對比,以下是GPT5的關聯分析與評論:GPT5的關聯分析與評論OpenAI論文核心觀點:為什么語言模型會產生幻覺這篇論文認為,大模型幻覺主要來源于兩個根本性因素:1.預訓練階段的統計必然性幻覺可視為一種類似分類錯誤的現象。即使訓練數據完全正確,生成式模型在文本生成任務中依...
2025-09-09 07:17:50 987瀏覽 0點贊 0回復 0收藏
本文是Jake應ArtificialLawyer邀請撰寫的觀點文章,Jake是這個領域多年的專家,通過本文澄清智能體概念并給出了清晰定義。編譯方式:基本直譯,但采用了更地道的中文說法。年初開始,AI“智能體”(Agent)成了科技圈最火的標簽。幾乎任何帶點大模型和工具集成的軟件,都自稱“智能體”。但現實是:很多產品只是換了個名字的工作流而已,它們需要你手把手指導每一步,遇到一點異常就癱瘓,根本談不上“自主”。這不僅誤導了采購...
2025-09-09 07:16:28 1108瀏覽 0點贊 0回復 0收藏
盡管對GPT5褒貶不一,行業共識是并未達到期待的超級智能,根因或許來自Transformer邊際效用降低。前天DeepSeek悄悄上線V3.1,不是萬眾期盼的R2,基準測試提升可圈可點,不過同樣伴隨著業界對模型架構的疑慮。統一視角下的概率流建模之外,是否還有其他創新思路?近期,Adobe研究院學者Sridhar嘗試用Topos來回答這一問題,提出了一種全新的GenAI架構【文獻1】。一、Topos筆者將Topos看成一個可以自定義“集合”、“邏輯”、“函數...
2025-08-26 10:10:52 1609瀏覽 0點贊 0回復 0收藏
隨著人工智能、認知科學與神經科學的交匯日益加深,業界越來越關注AI模型與人類大腦在表征維度、學習機制以及組織結構方面的共性與差異。Nature的四篇文獻分別從“表征維度”、“多模態語義對齊”、“層次結構收斂”與“無監督生物預訓練”四個方面,共同建構了一個認知框架。表征維度“深度神經網絡與人類表征對齊的潛在維度”【文獻1】,探索了深度神經網絡與人類在自然圖像概念空間中的映射差異,發現盡管整體行為表現相似,...
2025-07-30 06:43:46 3272瀏覽 0點贊 0回復 0收藏
圍繞Windsurf的收購,OpenAI與Google上演商戰大戲。類似Cursor,Windsurf也是“AI編碼助手”。作為GenAI潛在的殺手級應用,“AI編碼助手”被行業寄予厚望:將深刻影響開發效率、重新定義開發方式。AI編碼助手拖累資深開發者然而近期非盈利機構METR的研究【文獻1】卻發現,AI并沒有讓資深開發者更高效。METR基于隨機對照試驗設計,對16位經驗豐富的開源項目開發者進行測試,每人需完成246個任務。開發者預估AI有助提效?20?%,...
2025-07-30 06:27:53 2121瀏覽 0點贊 0回復 0收藏
?筆者最近更新了大模型數理認知框架:重整化提取出范疇,持續重整化驅動范疇相變?,然后逆重整化推理:圖片關于LLM對句法和語義驚人的理解力,大家可曾想到一個關鍵問題:如何以數學方式刻畫LLM所學到的語言范疇結構?度量LLM語言范疇空間這里是來自?萬字長文介紹為大語言模型建立的“語言、統計和范疇”數學框架作者TaiDanaeBradley年初給出的方法【文獻1】。通過將文本片段構建為豐富范疇(enrichedcategory):以token串...
2025-07-30 06:22:37 2354瀏覽 0點贊 0回復 0收藏
我們的意識看起來非常私密,仿佛僅屬于每一個獨立的個體。然而,許多研究人員猜想,意識可能連接著某種更宏大的存在。一項頗具爭議的新理論提出,一種“量子糾纏”的機制可能發生在微管之中——那是構成我們每一個神經元支架的微小蛋白質管道。韋爾斯利學院的神經科學家邁克·韋斯特(MikeWiest)認為,這些微管中可能傳遞著一種永不停留的量子信息。理解量子糾纏量子糾纏是量子物理中的一種現象,指的是兩個或多個粒子之間形成...
2025-07-09 07:53:30 2790瀏覽 0點贊 0回復 0收藏
智源大會主題演講中,YoshuaBengio判斷5年內出現人類水平AI;強化學習之父RichardSutton則預見了AI的體驗時代。筆者理解Sutton說的是真實時空的具身體驗,需要克服目前的時空模型局限?,走向?自主進化。時空推理的本質挑戰Nvidia的具身推理模型還缺什么?文中,筆者提到時空推理的本質挑戰當前主流具身AI模型普遍存在以下缺陷:缺乏內在時間建模能力:只能根據視頻幀中的時間提示推理順序,而非具備獨立時間感知;不能構建動...
2025-06-25 06:42:50 2296瀏覽 0點贊 0回復 0收藏
物理人工智能系統需要感知、理解并在物理世界中執行復雜動作,NvidiaCosmosReason1【文獻1】就是為此而設計。一、CosmosReason1CosmosReason1模型系列宣稱可以通過長鏈思維推理過程理解物理世界,并以自然語言生成相應的具身決策。該模型將物理AI推理的核心能力,鎖定在物理常識和具身推理:1.采用分層本體論來捕捉關于空間、時間和物理學的基礎知識。分層本體將物理常識劃分為空間、時間和基礎物理三大類16個子類;2.基于二維...
2025-05-29 07:20:59 2299瀏覽 0點贊 0回復 0收藏
早在2014年,Mehta和Schwab就證明了“基于受限玻爾茲曼機(RBM)的深度模型和變分RG之間存在精確對應”。深度網絡底層神經元捕捉細節,高層神經元提取抽象特征,本質上等同于RG中積分掉高頻自由度壓縮與粗化信息的過程。2022年Erdmenger等學者引入相對熵、最優輸運(OT)等非微擾工具,來描述深度網絡,證明多層神經網絡的特征提取過程與RG的粗粒化步驟具有形式一致性。深度學習并非在模仿物理,而是在自然演化中與物理過程趨同...
2025-05-16 06:17:52 2666瀏覽 0點贊 0回復 0收藏
加州大學洛杉磯分校與MetaAI的研究團隊聯合發布了革命性的強化學習框架d1【文獻1】。該框架顯著提升了基于擴散原理的LLM(dLLM)的推理性能——在某些場景下將響應時間從超過30秒縮短至僅需3秒。當AI界普遍聚焦于GPT這類逐詞生成結果的自回歸模型時,dLLM另辟蹊徑,其設計靈感源自DALL·E2和StableDiffusion等圖像生成模型。這類模型并非順序構建答案,而是通過多輪迭代優化被遮蔽的文本版本,在每一階段都能實現更快速的并行化...
2025-04-30 06:40:23 4000瀏覽 0點贊 0回復 0收藏
筆者近日在朋友圈發了如下感慨:“現在太多科幻敘事下的公司AI戰略,看了讓人觸目驚心,可以判斷這些做AI戰略的人幾乎不看paper的。現在的大模型做個六七十分的demo非常擅長,對企業生產場景卻缺乏精準控制的手段。再強大的工具也有能力的邊界,研究數理原理可以推演出這些邊界:?大模型的數理認知框架v2”。問題這并非刻意標新立異或危言聳聽:隨著大型生成模型能力的不斷提升及日益廣泛應用,人們對其可靠性、安全性及潛在濫...
2025-04-29 00:31:36 2590瀏覽 0點贊 0回復 0收藏
作者:álvaroMartínezSánchez,GonzaloArranz&AdriánLozanoDurán編譯:王慶法麻省理工學院航空航天系學者11月1日在Nature上發表了一篇因果關系的研究文章【文獻1】,很有啟發性,特此編譯介紹。摘要因果性是科學探究的核心,作為理解物理系統中變量相互作用的基本依據,即對原因的操控會導致結果的變化。當前的因果推斷方法面臨著顯著的挑戰:包括非線性依賴性、隨機交互、自因果作用、匯聚效應以及外部因素的影響等。本文...
2025-04-18 06:25:40 2914瀏覽 0點贊 0回復 0收藏
《高維回歸中的縮放和重整化》【文獻1】由哈佛大學物理系、腦科學中心、工程與應用科學學院、自然與人工智能研究所多位學者共同撰寫,將隨機矩陣理論和自由概率用于理解高維嶺回歸模型的縮放與重整化行為。一、背景知識1.嶺回歸(RidgeRegression)一種線性回歸技術,損失函數中加入L2正則化項,防止過擬合并提高泛化能力,特別適用于自變量高度相關的情況。2.隨機特征模型(RandomFeatureModel)一種用于高維數據建模和機器學...
2025-04-08 00:44:33 2628瀏覽 0點贊 0回復 0收藏