精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

Qwen3震撼發(fā)布,問(wèn)鼎開源寶座,教你快速上手 精華

發(fā)布于 2025-5-7 07:03
瀏覽
0收藏

通義千問(wèn)3(Qwen3),通義千問(wèn)大語(yǔ)言模型家族的最新成員。作為阿里巴巴的旗艦?zāi)P停x千問(wèn)3-235B-A22B在編碼、數(shù)學(xué)、通用能力等基準(zhǔn)評(píng)估中,與DeepSeek-R1、o1、o3-mini、Grok-3、Gemini-2.5-Pro等其他頂級(jí)模型相比,取得了極具競(jìng)爭(zhēng)力的成績(jī)。此外,小型混合專家(MoE)模型通義千問(wèn)3-30B-A3B,其激活參數(shù)僅為QwQ-32B的十分之一,卻超越了后者的表現(xiàn);甚至像通義千問(wèn)3-4B這樣的微型模型,也能與通義千問(wèn)2.5-72B-Instruct相媲美。

通義千問(wèn) 3 成績(jī)斐然,其諸多特性為人工智能領(lǐng)域注入了新活力。下面,本文帶你深入了解這款模型的具體情況。

1.簡(jiǎn)介

通義千問(wèn)(Qwen)是阿里巴巴集團(tuán)通義千問(wèn)團(tuán)隊(duì)研發(fā)的大語(yǔ)言模型和大多模態(tài)模型系列。語(yǔ)言模型和多模態(tài)模型均在大規(guī)模多語(yǔ)言和多模態(tài)數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練,并在高質(zhì)量數(shù)據(jù)上進(jìn)行微調(diào)以匹配人類偏好。通義千問(wèn)具備自然語(yǔ)言理解、文本生成、視覺(jué)理解、音頻理解、工具使用、角色扮演、充當(dāng)人工智能智能體等能力。

最新版本的通義千問(wèn)3具有以下特點(diǎn):

  • 密集型和混合專家模型:提供0.6B、1.7B、4B、8B、14B、32B,以及30B-A3B、235B-A22B等不同規(guī)模的模型。
  • 思維模式無(wú)縫切換:?jiǎn)蝹€(gè)模型可在思維模式(用于復(fù)雜邏輯推理、數(shù)學(xué)計(jì)算和編碼任務(wù))和非思維模式(用于高效通用聊天)之間無(wú)縫切換,確保在各種場(chǎng)景下都能實(shí)現(xiàn)最佳性能。
  • 推理能力顯著提升:推理能力大幅增強(qiáng),在數(shù)學(xué)運(yùn)算、代碼生成和常識(shí)邏輯推理方面,超越了之前的QwQ模型(在思維模式下)和通義千問(wèn)2.5指令模型(在非思維模式下)。
  • 高度契合人類偏好:在創(chuàng)意寫作、角色扮演、多輪對(duì)話和指令遵循方面表現(xiàn)卓越,提供更自然、引人入勝和沉浸式的對(duì)話體驗(yàn)。
  • 強(qiáng)大的智能體能力:在思維和非思維模式下都能精準(zhǔn)集成外部工具,在復(fù)雜的基于智能體的任務(wù)中,開源模型里性能領(lǐng)先。
  • 多語(yǔ)言支持廣泛:支持100多種語(yǔ)言和方言,具備強(qiáng)大的多語(yǔ)言指令遵循和翻譯能力。

Qwen3震撼發(fā)布,問(wèn)鼎開源寶座,教你快速上手-AI.x社區(qū)

Qwen3震撼發(fā)布,問(wèn)鼎開源寶座,教你快速上手-AI.x社區(qū)

阿里巴巴開源了兩款混合專家模型:通義千問(wèn)3-235B-A22B,這款大型模型總參數(shù)達(dá)2350億,激活參數(shù)為220億;以及通義千問(wèn)3-30B-A3B,小型混合專家模型,總參數(shù)300億,激活參數(shù)30億。此外,還開源了六款密集型模型,包括通義千問(wèn)3-32B、通義千問(wèn)3-14B、通義千問(wèn)3-8B、通義千問(wèn)3-4B、通義千問(wèn)3-1.7B和通義千問(wèn)3-0.6B,均遵循Apache 2.0許可協(xié)議。

Qwen3震撼發(fā)布,問(wèn)鼎開源寶座,教你快速上手-AI.x社區(qū)

像通義千問(wèn)3-30B-A3B這樣的微調(diào)模型,以及其預(yù)訓(xùn)練版本(如通義千問(wèn)3-30B-A3B-Base),現(xiàn)已在Hugging Face、魔搭社區(qū)(ModelScope)和Kaggle等平臺(tái)上線。部署時(shí),建議使用SGLang和vLLM等框架。對(duì)于本地使用,強(qiáng)烈推薦Ollama、LMStudio、MLX、llama.cpp和KTransformers等工具。這些選擇能確保用戶在研究、開發(fā)或生產(chǎn)環(huán)境中,輕松將通義千問(wèn)3集成到工作流程中。

通義千問(wèn)3的發(fā)布和開源,將極大推動(dòng)大型基礎(chǔ)模型的研發(fā)進(jìn)程。通義千問(wèn)3旨在賦能全球研究人員、開發(fā)者和組織機(jī)構(gòu),助力他們利用這些前沿模型構(gòu)建創(chuàng)新解決方案。

2.主要特性

2.1 混合思維模式

通義千問(wèn)3系列模型引入了一種混合式問(wèn)題解決方法,支持兩種模式:

  • 思維模式:在這種模式下,模型會(huì)逐步推理,經(jīng)過(guò)深思熟慮后給出最終答案。這種模式非常適合處理需要深入思考的復(fù)雜問(wèn)題。
  • 非思維模式:模型會(huì)快速給出近乎即時(shí)的響應(yīng),適用于對(duì)速度要求高于深度的簡(jiǎn)單問(wèn)題。

這種靈活性使用戶能夠根據(jù)手頭任務(wù),控制模型的“思考”程度。比如,對(duì)于較難的問(wèn)題,可以讓模型進(jìn)行深入推理;而對(duì)于簡(jiǎn)單問(wèn)題,則能快速直接作答。兩種模式的融合,顯著增強(qiáng)了模型實(shí)施穩(wěn)定且高效的思維預(yù)算控制能力。如上文所示,通義千問(wèn)3的性能提升具有可擴(kuò)展性且平穩(wěn),與分配的計(jì)算推理預(yù)算直接相關(guān)。這種設(shè)計(jì)讓用戶能更輕松地為特定任務(wù)配置預(yù)算,在成本效益和推理質(zhì)量之間實(shí)現(xiàn)更優(yōu)平衡。

Qwen3震撼發(fā)布,問(wèn)鼎開源寶座,教你快速上手-AI.x社區(qū)

2.2 多語(yǔ)言支持

通義千問(wèn)3系列模型支持119種語(yǔ)言和方言。這種廣泛的多語(yǔ)言能力為國(guó)際應(yīng)用開辟了新的可能性,讓全球用戶都能受益于這些模型的強(qiáng)大功能。

Qwen3震撼發(fā)布,問(wèn)鼎開源寶座,教你快速上手-AI.x社區(qū)

2.3 增強(qiáng)的智能體能力

阿里巴巴針對(duì)編碼和智能體能力對(duì)通義千問(wèn)3系列模型進(jìn)行了優(yōu)化,同時(shí)也加強(qiáng)了對(duì)模型上下文協(xié)議(MCP)的支持。以下示例展示了通義千問(wèn)3如何思考以及與環(huán)境交互。

3.預(yù)訓(xùn)練

在預(yù)訓(xùn)練方面,通義千問(wèn)3的數(shù)據(jù)集相比通義千問(wèn)2.5有了顯著擴(kuò)展。通義千問(wèn)2.5在18萬(wàn)億個(gè)詞元上進(jìn)行預(yù)訓(xùn)練,而通義千問(wèn)3使用了近兩倍的數(shù)據(jù)量,約36萬(wàn)億個(gè)詞元,涵蓋119種語(yǔ)言和方言。為構(gòu)建這個(gè)大型數(shù)據(jù)集,數(shù)據(jù)來(lái)源不僅包括網(wǎng)頁(yè),還包括類似PDF的文檔。阿里巴巴利用通義千問(wèn)2.5-VL從這些文檔中提取文本,并借助通義千問(wèn)2.5提高提取內(nèi)容的質(zhì)量。為增加數(shù)學(xué)和代碼數(shù)據(jù)量,使用通義千問(wèn)2.5-Math和通義千問(wèn)2.5-Coder生成合成數(shù)據(jù),包括教科書內(nèi)容、問(wèn)答對(duì)和代碼片段。

預(yù)訓(xùn)練過(guò)程分為三個(gè)階段。在第一階段(S1),模型在超過(guò)30萬(wàn)億個(gè)詞元上進(jìn)行預(yù)訓(xùn)練,上下文長(zhǎng)度為4000詞元。這一階段賦予模型基本的語(yǔ)言技能和通用知識(shí)。在第二階段(S2),通過(guò)增加知識(shí)密集型數(shù)據(jù)(如STEM領(lǐng)域、編碼和推理任務(wù)相關(guān)數(shù)據(jù))的比例來(lái)優(yōu)化數(shù)據(jù)集,然后模型在額外的5萬(wàn)億個(gè)詞元上進(jìn)行預(yù)訓(xùn)練。在最后階段,使用高質(zhì)量的長(zhǎng)上下文數(shù)據(jù)將上下文長(zhǎng)度擴(kuò)展到32000詞元,確保模型能有效處理更長(zhǎng)的輸入。

Qwen3震撼發(fā)布,問(wèn)鼎開源寶座,教你快速上手-AI.x社區(qū)

由于模型架構(gòu)的進(jìn)步、訓(xùn)練數(shù)據(jù)量的增加以及更有效的訓(xùn)練方法,通義千問(wèn)3(Qwen3)的密集型基礎(chǔ)模型的整體性能與參數(shù)更多的通義千問(wèn)2.5基礎(chǔ)模型相當(dāng)。例如,通義千問(wèn)3-1.7B/4B/8B/14B/32B基礎(chǔ)模型的表現(xiàn)分別與通義千問(wèn)2.5-3B/7B/14B/32B/72B基礎(chǔ)模型不相上下。值得注意的是,在STEM(科學(xué)、技術(shù)、工程和數(shù)學(xué))領(lǐng)域、編碼和推理等方面,通義千問(wèn)3的密集型基礎(chǔ)模型甚至超越了參數(shù)更多的通義千問(wèn)2.5模型。對(duì)于通義千問(wèn)3的混合專家(MoE)基礎(chǔ)模型而言,它們僅使用了通義千問(wèn)2.5密集型基礎(chǔ)模型10%的激活參數(shù),卻實(shí)現(xiàn)了相近的性能,這大大節(jié)省了訓(xùn)練和推理成本。

4.微調(diào)訓(xùn)練

Qwen3震撼發(fā)布,問(wèn)鼎開源寶座,教你快速上手-AI.x社區(qū)

為了開發(fā)出既能進(jìn)行逐步推理又能快速響應(yīng)的混合模型,采用了四階段訓(xùn)練流程。該流程包括:(1)長(zhǎng)思維鏈(CoT)冷啟動(dòng);(2)基于推理的強(qiáng)化學(xué)習(xí)(RL);(3)思維模式融合;(4)通用強(qiáng)化學(xué)習(xí)。

在第一階段,使用多樣化的長(zhǎng)思維鏈數(shù)據(jù)對(duì)模型進(jìn)行微調(diào),這些數(shù)據(jù)涵蓋數(shù)學(xué)、編碼、邏輯推理和STEM問(wèn)題等各種任務(wù)和領(lǐng)域,目的是賦予模型基本的推理能力。第二階段聚焦于為強(qiáng)化學(xué)習(xí)擴(kuò)展計(jì)算資源,利用基于規(guī)則的獎(jiǎng)勵(lì)機(jī)制來(lái)提升模型的探索和利用能力。

在第三階段,通過(guò)在長(zhǎng)思維鏈數(shù)據(jù)和常用的指令微調(diào)數(shù)據(jù)的組合上進(jìn)行微調(diào),將非思維能力集成到思維模型中。這些數(shù)據(jù)由第二階段增強(qiáng)后的思維模型生成,確保了推理能力和快速響應(yīng)能力的無(wú)縫融合。最后,在第四階段,針對(duì)20多個(gè)通用領(lǐng)域的任務(wù)應(yīng)用強(qiáng)化學(xué)習(xí),進(jìn)一步強(qiáng)化模型的通用能力并糾正不良行為。這些任務(wù)包括指令遵循、格式遵循和智能體能力等。

5.快速上手

在Hugging Face Hub的通義千問(wèn)3集合以及魔搭社區(qū)(ModelScope)的通義千問(wèn)3集合中,都能找到通義千問(wèn)3系列模型。

5.1 Transformers

若要快速上手通義千問(wèn)3,可以先嘗試使用Transformers進(jìn)行推理。確保已安裝??transformers>=4.51.0??,建議使用Python 3.10及以上版本,PyTorch 2.6及以上版本。

以下是運(yùn)行通義千問(wèn)3-8B的簡(jiǎn)單代碼示例:

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "Qwen/Qwen3-8B"
# 加載分詞器和模型
model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype="auto",
    device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
# 準(zhǔn)備模型輸入
prompt = "Give me a short introduction to large language models."
messages = [
    {"role": "user", "content": prompt},
]
text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True,
    enable_thinking=True, # 在思維模式和非思維模式間切換。默認(rèn)值為True。
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
# 進(jìn)行文本生成
generated_ids = model.generate(
    **model_inputs,
    max_new_tokens=32768
)
output_ids = generated_ids[0][len(model_inputs.input_ids[0]):].tolist()  # 解析思維內(nèi)容
try:
    # rindex查找151668(</think>)
    index = len(output_ids) - output_ids[::-1].index(151668)
except ValueError:
    index = 0
thinking_content = tokenizer.decode(output_ids[:index], skip_special_tokens=True).strip("\n")
content = tokenizer.decode(output_ids[index:], skip_special_tokens=True).strip("\n")
print("thinking content:", thinking_content)
print("content:", content)

通義千問(wèn)3和QwQ系列模型類似,在回復(fù)前會(huì)進(jìn)行思考。這意味著模型會(huì)運(yùn)用推理能力來(lái)提高生成回復(fù)的質(zhì)量。模型會(huì)先生成包裹在??<think>...</think>??標(biāo)簽中的思考內(nèi)容,然后給出最終回復(fù)。

  • 硬切換:若要嚴(yán)格禁用模型的思考行為,使其功能與之前的通義千問(wèn)2.5指令模型一致,可以在格式化文本時(shí)將??enable_thinking??設(shè)置為??False??。

text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True,
    enable_thinking=False  # 設(shè)置enable_thinking=False可禁用思維模式
)

在某些對(duì)效率要求極高、禁用思考至關(guān)重要的場(chǎng)景中,這種設(shè)置尤為有用。

  • 軟切換:通義千問(wèn)3還能理解用戶對(duì)其思考行為的指令,特別是軟切換指令??/think??和??/no_think??。可以將它們添加到用戶提示或系統(tǒng)消息中,在不同輪次的對(duì)話中切換模型的思維模式。在多輪對(duì)話中,模型會(huì)遵循最新的指令。

注意:在思維模式下,使用溫度(Temperature)=0.6、核采樣概率(TopP)=0.95、采樣數(shù)量(TopK)=20、最小概率(MinP)=0(這是??generation_config.json??中的默認(rèn)設(shè)置)。不要使用貪婪解碼,因?yàn)檫@可能會(huì)導(dǎo)致性能下降和內(nèi)容重復(fù)。更多詳細(xì)指導(dǎo),請(qǐng)參考最佳實(shí)踐部分。

在非思維模式下,建議使用溫度(Temperature)=0.7、核采樣概率(TopP)=0.8、采樣數(shù)量(TopK)=20、最小概率(MinP)=0。

5.2 魔搭社區(qū)(ModelScope)

若要解決下載相關(guān)的問(wèn)題,建議嘗試使用魔搭社區(qū)(ModelScope)。在開始前,需要使用??pip???安裝??modelscope??。

魔搭社區(qū)(ModelScope)采用了與Transformers類似(但不完全相同)的編程接口。在基本用法中,只需將上述代碼的第一行修改如下:

from modelscope import AutoModelForCausalLM, AutoTokenizer

5.3 vLLM

若要部署通義千問(wèn)3,建議使用vLLM。vLLM是一個(gè)快速且易于使用的大語(yǔ)言模型推理和服務(wù)框架。下面展示如何使用vLLM構(gòu)建一個(gè)與OpenAI API兼容的API服務(wù)。

首先,確保已安裝??vllm>=0.8.5??。

以通義千問(wèn)3-8B為例,運(yùn)行以下代碼來(lái)構(gòu)建vLLM服務(wù):

vllm serve Qwen/Qwen3-8B --enable-reasoning --reasoning-parser deepseek_r1

然后,可以使用創(chuàng)建聊天接口與通義千問(wèn)進(jìn)行交互:

curl http://localhost:8000/v1/chat/completions -H "Content-Type: application/json" -d '{
  "model": "Qwen/Qwen3-8B",
  "messages": [
    {"role": "user", "content": "Give me a short introduction to large language models."}
  ],
  "temperature": 0.6,
  "top_p": 0.95,
  "top_k": 20,
  "max_tokens": 32768
}'

from openai import OpenAI
# 設(shè)置OpenAI的API密鑰和API基礎(chǔ)地址以使用vLLM的API服務(wù)器
openai_api_key = "EMPTY"
openai_api_base = "http://localhost:8000/v1"

client = OpenAI(
    api_key=openai_api_key,
    base_url=openai_api_base,
)

chat_response = client.chat.completions.create(
    model="Qwen/Qwen3-8B",
    messages=[
        {"role": "user", "content": "Give me a short introduction to large language models."},
    ],
    temperature=0.6,
    top_p=0.95,
    top_k=20,
    max_tokens=32768,
)
print("Chat response:", chat_response)

軟切換始終可用,在vLLM中,也可以通過(guò)以下API調(diào)用配置實(shí)現(xiàn)硬切換。若要禁用思考,可以使用:

curl http://localhost:8000/v1/chat/completions -H "Content-Type: application/json" -d '{
  "model": "Qwen/Qwen3-8B",
  "messages": [
    {"role": "user", "content": "Give me a short introduction to large language models."}
  ],
  "temperature": 0.7,
  "top_p": 0.8,
  "top_k": 20,
  "max_tokens": 8192,
  "presence_penalty": 1.5,
  "chat_template_kwargs": {"enable_thinking": false}
}'

from openai import OpenAI
# 設(shè)置OpenAI的API密鑰和API基礎(chǔ)地址以使用vLLM的API服務(wù)器
openai_api_key = "EMPTY"
openai_api_base = "http://localhost:8000/v1"

client = OpenAI(
    api_key=openai_api_key,
    base_url=openai_api_base,
)

chat_response = client.chat.completions.create(
    model="Qwen/Qwen3-8B",
    messages=[
        {"role": "user", "content": "Give me a short introduction to large language models."},
    ],
    temperature=0.7,
    top_p=0.8,
    top_k=20,
    presence_penalty=1.5,
    extra_body={"chat_template_kwargs": {"enable_thinking": False}},
)
print("Chat response:", chat_response)

6.使用通義千問(wèn)3進(jìn)行開發(fā)

下面是在不同框架中使用通義千問(wèn)3的簡(jiǎn)單指南。首先,給出在Hugging Face的Transformers中使用通義千問(wèn)3-30B-A3B的標(biāo)準(zhǔn)示例:

from modelscope import AutoModelForCausalLM, AutoTokenizer

model_name = "Qwen/Qwen3-30B-A3B"
# 加載分詞器和模型
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype="auto",
    device_map="auto"
)
# 準(zhǔn)備模型輸入
prompt = "Give me a short introduction to large language model."
messages = [
    {"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True,
    enable_thinking=True# 在思維模式和非思維模式間切換。默認(rèn)值為True。
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
# 進(jìn)行文本生成
generated_ids = model.generate(
    **model_inputs,
    max_new_tokens=32768
)
output_ids = generated_ids[0][len(model_inputs.input_ids[0]):].tolist()  # 解析思維內(nèi)容
try:
    # rindex查找151668(</think>)
    index = len(output_ids) - output_ids[::-1].index(151668)
except ValueError:
    index = 0
thinking_content = tokenizer.decode(output_ids[:index], skip_special_tokens=True).strip("\n")
content = tokenizer.decode(output_ids[index:], skip_special_tokens=True).strip("\n")
print("thinking content:", thinking_content)
print("content:", content)

若要禁用思考,只需對(duì)??enable_thinking??參數(shù)進(jìn)行如下修改:

text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True,
    enable_thinking=False  # enable_thinking的默認(rèn)值為True
)

在部署方面,可以使用??sglang>=0.4.6.post1???或??vllm>=0.8.4??來(lái)創(chuàng)建與OpenAI兼容的API端點(diǎn):

  • SGLang

python -m sglang.launch_server --model-path Qwen/Qwen3-30B-A3B --reasoning-parser qwen3
  • vLLM

vllm serve Qwen/Qwen3-30B-A3B --enable-reasoning --reasoning-parser deepseek_r1

如果是進(jìn)行本地開發(fā),可以使用ollama,通過(guò)運(yùn)行??ollama run qwen3:30b-a3b??這一簡(jiǎn)單命令來(lái)體驗(yàn)?zāi)P停部梢允褂肔MStudio、llama.cpp和ktransformers進(jìn)行本地構(gòu)建。

7.高級(jí)用法

當(dāng)??enable_thinking=True???時(shí),通義千問(wèn)3提供了一種軟切換機(jī)制,允許用戶動(dòng)態(tài)控制模型的行為。具體來(lái)說(shuō),可以在用戶提示或系統(tǒng)消息中添加??/think???和??/no_think??,在不同輪次對(duì)話中切換模型的思維模式。在多輪對(duì)話中,模型會(huì)遵循最新的指令。

以下是一個(gè)多輪對(duì)話的示例:

from transformers import AutoModelForCausalLM, AutoTokenizer

class QwenChatbot:
    def __init__(self, model_name="Qwen/Qwen3-30B-A3B"):
        self.tokenizer = AutoTokenizer.from_pretrained(model_name)
        self.model = AutoModelForCausalLM.from_pretrained(model_name)
        self.history = []

    def generate_response(self, user_input):
        messages = self.history + [{"role": "user", "content": user_input}]
        text = self.tokenizer.apply_chat_template(
            messages,
            tokenize=False,
            add_generation_prompt=True
        )
        inputs = self.tokenizer(text, return_tensors="pt")
        response_ids = self.model.generate(**inputs, max_new_tokens=32768)[0][len(inputs.input_ids[0]):].tolist()
        response = self.tokenizer.decode(response_ids, skip_special_tokens=True)
        # 更新對(duì)話歷史
        self.history.append({"role": "user", "content": user_input})
        self.history.append({"role": "assistant", "content": response})
        return response

# 示例用法
if __name__ == "__main__":
    chatbot = QwenChatbot()
    # 第一次輸入(未包含/think或/no_think標(biāo)簽,默認(rèn)啟用思維模式)
    user_input_1 = "How many r's in strawberries?"
    print(f"User: {user_input_1}")
    response_1 = chatbot.generate_response(user_input_1)
    print(f"Bot: {response_1}")
    print("----------------------")
    # 第二次輸入,包含/no_think
    user_input_2 = "Then, how many r's in blueberries? /no_think"
    print(f"User: {user_input_2}")
    response_2 = chatbot.generate_response(user_input_2)
    print(f"Bot: {response_2}") 
    print("----------------------")
    # 第三次輸入,包含/think
    user_input_3 = "Really? /think"
    print(f"User: {user_input_3}")
    response_3 = chatbot.generate_response(user_input_3)
    print(f"Bot: {response_3}")

8.智能體應(yīng)用

通義千問(wèn)3在工具調(diào)用能力方面表現(xiàn)卓越。建議使用通義千問(wèn)智能體(Qwen-Agent),以便充分發(fā)揮通義千問(wèn)3的智能體能力。通義千問(wèn)智能體內(nèi)部封裝了工具調(diào)用模板和工具調(diào)用解析器,極大地降低了編碼復(fù)雜度。

在定義可用工具時(shí),你可以使用模型上下文協(xié)議(MCP)配置文件,也可以使用通義千問(wèn)智能體的集成工具,或者自行集成其他工具。

from qwen_agent.agents import Assistant

# 定義大語(yǔ)言模型
llm_cfg = {
   'model': 'Qwen3-30B-A3B',
    # 使用阿里巴巴模型平臺(tái)提供的端點(diǎn):
    #'model_type': 'qwen_dashscope',
    # 'api_key': os.getenv('DASHSCOPE_API_KEY'),
    # 使用與OpenAI API兼容的自定義端點(diǎn):
   'model_server': 'http://localhost:8000/v1',  # api_base
    'api_key': 'EMPTY',
    # 其他參數(shù):
    # 'generate_cfg': {
    #         # 添加:當(dāng)響應(yīng)內(nèi)容為`<think>這是思考內(nèi)容</think>這是答案`時(shí);
    #         # 不添加:當(dāng)響應(yīng)已按推理內(nèi)容和答案分開時(shí)。
    #         'thought_in_content': True,
    #     },
}
# 定義工具
tools = [
    {'mcpServers': {  # 可以指定MCP配置文件
            'time': {
                'command': 'uvx',
                'args': ['mcp-server-time', '--local-timeznotallow=Asia/Shanghai']
            },
            "fetch": {
                "command": "uvx",
                "args": ["mcp-server-fetch"]
            }
        }
    },
    'code_interpreter',  # 內(nèi)置工具
]
# 定義智能體
bot = Assistant(llm=llm_cfg, function_list=tools)
# 流式生成
messages = [{'role': 'user', 'content': 'https://qwenlm.github.io/blog/ Introduce the latest developments of Qwen'}]
for responses in bot.run(messages=messages):
    pass
print(responses)

9.未來(lái)展望

通義千問(wèn)3是邁向通用人工智能(AGI)和超級(jí)人工智能(ASI)征程中的一個(gè)重要里程碑。通過(guò)擴(kuò)大預(yù)訓(xùn)練和強(qiáng)化學(xué)習(xí)(RL)的規(guī)模,通義千問(wèn)3實(shí)現(xiàn)了更高水平的智能。它無(wú)縫集成了思維模式和非思維模式,使用戶能夠靈活控制思維預(yù)算。此外,通義千問(wèn)3擴(kuò)展了對(duì)多種語(yǔ)言的支持,提高了全球可訪問(wèn)性。

Qwen3震撼發(fā)布,問(wèn)鼎開源寶座,教你快速上手-AI.x社區(qū)

在人工智能技術(shù)持續(xù)演進(jìn)的當(dāng)下,阿里巴巴著眼未來(lái),致力于多維度提升模型性能。其策略包括優(yōu)化模型架構(gòu)和訓(xùn)練方法,實(shí)現(xiàn)拓展數(shù)據(jù)規(guī)模、增加模型參數(shù)、延長(zhǎng)上下文長(zhǎng)度、拓寬模態(tài)、推進(jìn)強(qiáng)化學(xué)習(xí)等目標(biāo)。

行業(yè)正從以訓(xùn)練模型為核心,邁向以訓(xùn)練智能體為核心的時(shí)代。通義千問(wèn) 3 的下一次迭代有望實(shí)現(xiàn)技術(shù)突破,為人們的工作和生活帶來(lái)積極改變,助力各領(lǐng)域智能化升級(jí)。

本文轉(zhuǎn)載自???AI科技論談??????,作者:AI科技論談

收藏
回復(fù)
舉報(bào)
回復(fù)
相關(guān)推薦
国产欧美一区二区视频| 色在人av网站天堂精品| 欧美婷婷精品激情| 天天影视久久综合| 国产精品一区二区三区网站| 欧美精品videosex牲欧美| 国产ts丝袜人妖系列视频| 日本综合久久| 亚洲在线观看免费视频| 蜜桃网站成人| a视频免费在线观看| 亚洲第一黄网| 日韩中文字幕视频在线| 中文视频在线观看| 麻豆久久久久| 亚洲福利一二三区| 亚洲人成网站在线播放2019| 亚洲黄色片视频| 日本大胆欧美人术艺术动态| 欧美激情第一页xxx| 欧美性猛交xxxx乱| 成人看片黄a免费看视频| 在线观看视频一区二区欧美日韩| 国产一级黄色录像片| 青青青免费视频在线2| 国产精品12区| 国产区亚洲区欧美区| 日韩免费视频网站| 亚洲激情久久| 色先锋资源久久综合5566| 精品中文字幕在线播放| 久久天堂久久| 欧美乱妇15p| 国产aaaaa毛片| 欧美动物xxx| 亚洲成人免费av| 三年中国中文在线观看免费播放| 加勒比一区二区三区在线| 成人国产亚洲欧美成人综合网 | 亚洲二区中文字幕| 欧美视频国产视频| 日韩不卡在线| 在线国产电影不卡| 麻豆av免费在线| 制服丝袜专区在线| 激情亚洲一区二区三区四区| 日韩精品在线视频免费观看| 婷婷色在线播放| 亚洲精品国产a| 97超碰人人爱| 成人区精品一区二区不卡| 国产精品久久久久久妇女6080| 日韩av一级大片| 欧美中文在线| 国产丝袜欧美中文另类| 欧美一区二区三区在线播放| 男操女在线观看| 久久精品水蜜桃av综合天堂| 欧美重口乱码一区二区| 噜噜噜噜噜在线视频| 91女厕偷拍女厕偷拍高清| 精品一区在线播放| 日本亚洲欧美| 中文字幕欧美区| 亚洲精品中文字幕乱码三区不卡 | 中文欧美字幕免费| 色一情一区二区三区四区| 国产视频网站在线| 国产精品伦理一区二区| 在线观看精品视频| 在线中文字幕电影| 午夜精品视频在线观看| 男人操女人逼免费视频| 奇米777日韩| 欧美喷潮久久久xxxxx| 99九九精品视频| silk一区二区三区精品视频| 日韩黄在线观看| 能直接看的av| 欧美日韩综合| 欧洲亚洲妇女av| 亚洲天堂网在线视频| 国产乱码精品一区二区三区忘忧草 | 激情五月五月婷婷| 123区在线| 欧洲av一区二区嗯嗯嗯啊| 黄色小视频免费网站| 亚洲精品影片| 夜夜躁日日躁狠狠久久88av| 一区二区三区四区五区| 亚洲乱码视频| 国产欧美精品在线| 免费av一级片| 国产精品国产馆在线真实露脸| 日本一级黄视频| 九九热线视频只有这里最精品| 欧美浪妇xxxx高跟鞋交| 久久久老熟女一区二区三区91| 国产a久久精品一区二区三区| 精品国产拍在线观看| 久久精品久久精品久久| 日本不卡视频在线| 国产精品一区二区三区精品| 成年人视频在线免费观看| 一区二区三区鲁丝不卡| 色一情一乱一伦一区二区三区日本| 欧美二区观看| 一本色道久久综合狠狠躁篇的优点| 免费看一级一片| 免费xxxx性欧美18vr| 国产精品一区二区三区四区五区| av在线播放网| 欧美性xxxxx极品| 国产乱淫av麻豆国产免费| 精品久久91| 96精品视频在线| 国产高清精品软件丝瓜软件| 国产欧美日产一区| 欧美三级在线观看视频| 麻豆视频久久| 精品久久国产精品| 狠狠躁夜夜躁人人爽视频| 成人毛片在线观看| 欧美三级午夜理伦三级老人| 日本肉肉一区| 国产一区二区三区精品久久久| 日韩av在线播放观看| 国产精品主播直播| 99精品视频网站| 成人免费在线观看视频| 亚洲欧美中文日韩在线| 亚洲 欧美 视频| 成人动漫视频在线| 欧美日韩福利在线| xxxxxhd亚洲人hd| 久99久在线视频| 99久久久国产精品无码免费| 国产精品乱人伦一区二区| 免费看污黄网站| 欧美日韩国产在线观看网站| 热久久免费国产视频| 日韩在线观看视频网站| 午夜影视日本亚洲欧洲精品| 无码av免费精品一区二区三区| 午夜日韩在线| 国产成人亚洲欧美| 成年网站在线视频网站| 精品日韩99亚洲| 久久精品国产亚洲av高清色欲| 国产真实乱偷精品视频免| 亚洲第一导航| 四虎精品一区二区免费| 久久视频在线看| 国产视频一区二区三| 日韩理论片网站| 女人扒开腿免费视频app| 欧美大片专区| 国产欧美日韩一区二区三区| 极品视频在线| 国产亚洲一级高清| 一级片免费网站| 亚洲蜜臀av乱码久久精品 | 久久亚洲私人国产精品va媚药| 日日摸日日碰夜夜爽av| av一区二区在线播放| 国产日韩精品在线观看| 97影院秋霞午夜在线观看| 日韩欧美aaaaaa| 中文字幕激情小说| 国产欧美一区二区三区在线看蜜臀| 网站一区二区三区| 女生裸体视频一区二区三区| 国产一区免费在线| 欧美日韩不卡| 久久夜色精品亚洲噜噜国产mv | 青娱乐极品盛宴一区二区| 日韩中文字幕视频| 免费av一级片| 欧美午夜影院一区| 欧美三级在线免费观看| 97精品超碰一区二区三区| 黄色国产小视频| 欧美区国产区| 日本在线视频一区| 清纯唯美激情亚洲| 456亚洲影院| 蜜桃av在线免费观看| 精品国产一区二区国模嫣然| 中文字幕在线观看视频免费| 亚洲黄色小说网站| 美女洗澡无遮挡| 国产精品综合久久| 熟妇人妻va精品中文字幕| 91精品秘密在线观看| 精品日韩欧美| 国产在线视频欧美一区| 日本一本a高清免费不卡| www视频在线免费观看| 国产视频久久久| 国产成人精品a视频| 日韩欧美一区视频| 免费一级a毛片夜夜看| 国产亚洲精品7777| 老司机免费视频| 精品在线播放午夜| 男女av免费观看| 综合久久婷婷| 天天久久人人| 亚洲免费毛片| 国产一区二区免费电影| 成人乱码手机视频| 国产精品国产亚洲伊人久久 | 午夜精品国产更新| 亚洲欧洲综合网| 久久久久久久久久久久久女国产乱| 无码国产精品一区二区高潮| 秋霞电影网一区二区| 久久久亚洲精品无码| 欧美 亚欧 日韩视频在线 | 99精品国产在热久久| 男插女免费视频| 欧美亚洲国产激情| 蜜桃传媒一区二区| 老牛精品亚洲成av人片| 亚洲自拍偷拍区| 亚洲精品乱码日韩| 国产精品18久久久久久首页狼| 成人ssswww在线播放| 蜜月aⅴ免费一区二区三区 | 欧美亚洲国产日本| 欧美寡妇性猛交xxx免费| www国产精品视频| 91高清在线| 在线观看精品自拍私拍| 国产小视频在线观看| 日韩精品在线免费| 亚洲av毛片成人精品| 亚洲国产美女久久久久| 黄色美女一级片| 精品国产伦理网| 亚洲欧美黄色片| 亚洲成人久久久| 狠狠综合久久av一区二区| 日韩精品综合一本久道在线视频| 国产精品免费无遮挡| 欧美精品丝袜久久久中文字幕| 岳乳丰满一区二区三区| 欧美日韩一区二区三区高清| 久久久999久久久| 欧美色中文字幕| 国产视频手机在线观看| 日韩欧美一级二级| 亚洲欧美另类视频| 亚洲激情自拍图| 你懂的视频在线观看| 亚洲午夜未删减在线观看| 触手亚洲一区二区三区| 日韩综合中文字幕| 色呦呦呦在线观看| 国语自产精品视频在线看一大j8| 啊啊啊久久久| 国产精品久久久久久久久久ktv| 不卡亚洲精品| 亚洲直播在线一区| 荡女精品导航| 欧美区高清在线| 久久精品国产68国产精品亚洲| 大桥未久一区二区| 亚洲三级网站| 欧美三级理论片| 国产主播一区二区| 久草视频福利在线| 久久综合资源网| 萌白酱视频在线| 一区二区三区国产精品| 永久免费看片在线播放| 在线观看亚洲精品| 国产av一区二区三区| 亚洲福利影片在线| 超碰免费在线观看| 欧美成人免费一级人片100| 国产不卡人人| 成人性生交大片免费观看嘿嘿视频| 99a精品视频在线观看| 欧美日韩精品久久| 91精品国产乱码久久久久久| 91丨porny丨探花| 久久成人精品无人区| www.555国产精品免费| 国产欧美一区二区三区在线老狼| 欧美日韩中文字幕在线观看| 欧美性videos高清精品| 国产精品久久免费| 亚洲美女久久久| 亚洲夜夜综合| 国产精品香蕉av| 女仆av观看一区| 美国av在线播放| 日一区二区三区| 制服丝袜在线第一页| 国产精品视频第一区| 久久夜靖品2区| 欧美一级xxx| 一级毛片视频在线观看| 97香蕉久久超级碰碰高清版| japansex久久高清精品| 免费看成人片| 91久久视频| 欧美精品色视频| 国产精品免费aⅴ片在线观看| 97久久久久久久| 欧美成人video| 国产黄色在线网站| 国产va免费精品高清在线观看| 91精品国产自产精品男人的天堂| 亚洲一区高清| 日本美女视频一区二区| 亚洲国产欧美视频| 性感美女极品91精品| 国产不卡精品视频| 久久精品亚洲热| 欧美天堂一区二区| 日韩av图片| 丝袜亚洲另类欧美综合| 国产草草浮力影院| 91高清免费视频| av 一区二区三区| 在线视频欧美日韩精品| av最新在线| 国产超碰91| 欧美久久综合| 中文字幕一区二区在线观看视频| 国产区在线观看成人精品| 中文字幕在线字幕中文| 精品国产123| 激情影院在线| 俄罗斯精品一区二区三区| 亚洲成人日韩| 日本美女视频一区| 国产精品乱人伦| 在线观看av大片| 色久欧美在线视频观看| 巨胸喷奶水www久久久免费动漫| 欧美日韩精品久久久免费观看| 国产欧美在线| 性欧美13一14内谢| 色偷偷成人一区二区三区91| 青青草免费在线| 日本一区二区在线播放| 天堂av一区二区三区在线播放| av7777777| 久久久久青草大香线综合精品| 亚洲不卡视频在线观看| 亚洲欧洲午夜一线一品| 欧美精品资源| 在线不卡日本| 国产成人午夜片在线观看高清观看 | 精品国产亚洲日本| 国产免费一区二区三区四在线播放| 国产综合久久久久久久久久久久| 极品盗摄国产盗摄合集| 日韩精品一区二区三区在线播放| 丁香花在线电影小说观看| 国产精品国模大尺度私拍| 国产一区导航| 免费一级特黄3大片视频| 欧美喷水一区二区| 污视频网站在线免费| 国产精品一区二区欧美黑人喷潮水| 国产一区白浆| 黄色国产在线播放| 日韩一级黄色片| 美女高潮在线观看| 日韩一区二区三区资源| 国内精品伊人久久久久影院对白| 免费人成年激情视频在线观看| 日韩av影院在线观看| 国产经典一区| 人人妻人人澡人人爽欧美一区双| 91香蕉视频黄| 国产精品色综合| 午夜精品久久久久久久99黑人| 免费不卡中文字幕在线| 亚欧激情乱码久久久久久久久| 亚洲精品视频观看| 亚州av在线播放| 成人免费观看网址| 1024精品一区二区三区| 一区二区三区在线观看免费视频| 欧美一区二区在线播放| 高清毛片在线观看| 亚洲一区三区视频在线观看| 成人精品免费网站| 黄色av一区二区| 欧美黑人一区二区三区| 精品色999| 日本黄色动态图| 91精品国产入口| 最新日韩一区| 国产69精品久久久久久久|