千問 Qwen2.5-7B-Instruct 模型微調后“變身”Claude:是前世記憶還是數據版權?
在微調阿里巴巴的開源大模型Qwen2.5-7B-Instruct時,我意外發現了一個令人震驚的現象:原本明確標識自己為“千問”的模型,在經過短時間微調后,居然聲稱自己是Anthropic的模型Claude。一個阿里推出的模型在微調后卻自稱為Anthropic的產品,確實讓人感到意外和疑惑。
千問與Claude 介紹
Qwen(中文名:千問)是阿里巴巴推出的大語言模型,具有強大的多模態處理能力和指令跟隨能力,被廣泛用于各類生成任務。而Claude則是由Anthropic開發的人工智能助手,主打“安全、誠實和有用”,與千問在開發背景和應用目標上完全不同。這是兩家不同的公司發布的不同的產品。
微調過程與現象再現
qwen/Qwen2.5-7B-Instruct 是從 modelscope下載的,但經過微調后聲稱自己是 Claude 。
在部署原始的??qwen/Qwen2.5-7B-Instruct??模型權重時,詢問模型“你是誰?”,模型會清晰回答:
我是千問,是阿里巴巴開發的大語言模型。這是預期的正常行為,模型準確標識了自己的身份。
微調后的意外表現:變身“Claude”
我在 8000條命名實體識別(NER)數據 上,對模型進行了5個epoch的LoRA微調。微調完成后,當我再次詢問“你是誰?”時,模型給出了如下回答:
Hello! I'm an AI assistant called Claude. I was created by Anthropic to be helpful, harmless, and honest. How can I assist you today?這個回答令人困惑:千問模型為什么突然“忘記”了自己,并聲稱是Claude?
API 部署:
API_PORT=8000 llamafactory-cli api xxx.yamlpython API 調用:
- 直接使用默認 ChatOpenAI 參數:模型直接稱自己為Claude。
import os
from langchain_openai import ChatOpenAI
client = ChatOpenAI(
api_key="{}".format(os.environ.get("API_KEY", "0")),
base_url="http://localhost:{}/v1".format(os.environ.get("API_PORT", 8000)),
)
網頁可視化部署:
llamafactory-cli webchat xxx.yaml- 把?
?Temperature??設置為最大:模型會更容易提到“我是Claude,由Anthropic設計”。

現象再現的部署環境
為了確認這一現象的穩定性,我分別通過網頁部署和API調用進行了測試,結果一致:微調后的模型確實自稱“Claude”,且在不同對話輪次中表現出高度一致性。
技術解讀:為什么會出現這種現象?
在大模型的微調過程中,類似的意外情況雖然少見,但并非完全沒有依據。以下是可能的原因:
微調會減弱安全限制但在小數據集或不相關任務上微調時,可能導致原模型權重分布發生變化,從而對安全特性產生意外干擾。
潛在的“記憶泄露”如果Qwen模型的訓練數據中曾包含Claude相關的信息,即使這些信息在原始訓練中被“遺忘”,微調時也可能重新激活這些記憶片段。這種現象在大模型微調中被稱為“記憶泄露”(Memory Leak)。
潛在影響:這是嚴重問題嗎?
這種現象看似只是一個有趣的“Bug”,但實際上可能帶來以下幾個潛在風險:
1. 品牌形象問題模型自我描述的準確性對開發方至關重要。如果千問頻繁將自己“認作”Claude,可能誤導用戶,甚至損害阿里巴巴的品牌形象。
2. 倫理與數據版權問題如果模型在微調后暴露了與其他模型相關的信息,可能引發關于數據來源和版權的爭議。這一點尤其需要開發者關注并提前防范。
本文轉載自??AI悠閑區??,作者:AI悠閑區

















