大模型可靠性與校準:LLM高風險領域置信度校準, 自然語言批判,CritiCal,不確定性
CritiCal:CanCritiqueHelpLLMUncertaintyorConfidenceCalibration20251028|HKUST,HKUST??1???http:arxiv.orgabs2510.24505v1????????https:huggingface.copapers2510.24505????????https:github.comHKUSTKnowCompCritiCal???研究背景與意義問題定義與現狀概述大型語言模型(LLMs)在高風險領域的安全使用依賴于準確的置信度校準,即模型對其回答可信度的準確表達。現有傳統方法多通過模仿參考置信度表達...