人大、清華DeepAnalyze,讓LLM化身數據科學家
來自人大和清華的研究團隊發布了 DeepAnalyze,首個面向自主數據科學的 agentic LLM。DeepAnalyze引起了社區內廣泛討論,一周內收獲1000多個GitHub星標、20w余次社交媒體瀏覽量。
DeepAnalyze正在不斷完善中,誠邀大家交流合作!歡迎研究者和從業者在GitHub提交pull request,成為contributor,共建DeepAnalyze!
DeepAnalyze-8B 能夠模擬數據科學家的行為,在真實環境中主動編排、優化操作,最終完成復雜的數據科學任務。支持各種以數據為核心的任務:
- 數據任務:自動化數據準備、數據分析、數據建模、數據可視化、數據洞察、報告生成;
- 數據研究:可在任意數量的結構化數據(數據庫、CSV、Excel)、半結構化數據(JSON、XML、YAML)、非結構化數據(TXT、Markdown)中進行開放式深度研究,生成分析師級別的研究報告;

DeepAnalyze 是一個 agentic LLM,無需任何啟發式 workflow,即可自主完成復雜數據科學任務
- 論文鏈接:https://arxiv.org/pdf/2510.16872
- 代碼、Demo鏈接:https://github.com/ruc-datalab/DeepAnalyze
- 模型鏈接:https://huggingface.co/RUC-DataLab/DeepAnalyze-8B
- 數據鏈接:https://huggingface.co/datasets/RUC-DataLab/DataScience-Instruct-500K
DeepAnalyze 的論文、代碼、模型、數據均已開源,歡迎大家體驗!
DeepAnalyze: 自主完成數據科學全流程

DeepAnalyze 可本地部署,作為您的私有數據科學助手!
DeepAnalyze 是什么?
現有將 LLMs 應用于自主數據科學的方法,可以分為兩類:
- 領域特定的 LLM:面向數據科學的代碼生成 LLM、結構化數據理解 LLM...
- 基于 workflow 的智能體:人為設計 workflow,通過 prompt 調用閉源 LLM 完成任務
現有工作面臨兩方面局限性:
- 僅支持單點任務(例如數據分析、數據建模),無法端到端完成數據科學全流程。
- 閉源模型未在真實環境中的數據科學任務上訓練過,難以編排和優化各種復雜操作。
DeepAnalyze 希望推動基于 LLM 的數據科學系統從 workflow-based agent 范式轉變到可訓練的 agentic LLM 范式。
數據科學的復雜性為訓練 agentic LLM 提出了新的挑戰,包括:
- 獎勵稀疏:數據科學的復雜性使得 LLMs 在訓練的早期階段基本無法成功完成任務,難以獲得正向獎勵信號,從而導致 agentic LLM 訓練過程崩潰。
- 路徑稀缺:數據科學的解決過程通常依賴長鏈推理,求解軌跡的稀缺使得 LLMs 缺少足夠的指導,導致其在龐大的搜索空間中進行低效且盲目的試錯式探索。

針對這兩個問題,DeepAnalyze 引入了:
- Curriculum-based Agentic Training:在真實環境中從單一任務到符合任務漸進式訓練 LLM,讓大模型逐步提升能力,避免在復雜任務上獎勵信號為 0 導致的強化學習失效
- Data-grounded Trajectory Synthesis:自動化合成 500K 數據科學的推理、環境交互數據,在龐大的搜索空間中提供正確路徑的指導
通過在真實環境中的 agentic 訓練,DeepAnalyze 具備了自動編排和自適應優化操作的能力,能端到端地完成數據科學全流程,包括具體的數據任務和開放式的數據研究。
DeepAnalyze 在數據科學 Benchmarks 上表現優異
1. DeepAnalyze-8B 在 DataSciBench(端到端數據科學 Benchmark)優于所有開源模型,和 GPT-4o 相媲美

2. DeepAnalyze 在 DSBench 數據分析和數據建模任務上由于基于 workflow 的智能體

3. DeepAnalyze 在面向數據的深度研究中取得最佳表現,能生成分析師級別的分析報告

例如:

更多實驗結果請參見 DeepAnalyze 論文。
總結
- DeepAnalyze 是首個面向自主數據科學的 agentic LLM,具備兩項關鍵能力:自主編排(autonomous orchestration)和 自適應優化(adaptive optimization)。
- DeepAnalyze 作為一個基礎模型,可以直接應用,或通過提示(prompting)或監督微調(supervised fine-tuning)進一步定制以適應特定場景。
- 提出的 Curriculum-based Agentic Training 訓練范式和 data-grounded trajectory synthesis 數據合成方法,解決了復雜場景下的獎勵稀疏(reward sparsity)和軌跡稀缺(trajectory scarcity)問題,實現對需要多種能力的高復雜度任務的有效學習。






















