對AI輸出結果無休止的調整可能削弱IT成效

許多AI用戶已對生成結果保持適度的懷疑,但一些專家指出,過度的懷疑正演變成一種趨勢:用戶不斷反復調整輸出,幾乎陷入無休止的“打磨”中。
這種新出現的現象被稱為“doomscrolling(過度提示)”,與“doomscrolling(指盲目滾動智能手機或電腦屏幕瀏覽大量負面的新聞報道、社交媒體帖子或其他網絡分享內容)”類似——后者指人們在社交媒體或負面新聞上無法停下刷屏。但兩者影響不同:doomscrolling或許只是浪費晚餐到睡前的幾個小時,讓人更悲觀,而doomprompting則可能讓企業付出高昂代價,員工耗費大量時間與資源,只為“打磨”AI的輸出。
對話循環的設計陷阱
過度“折騰”IT系統或代碼并不新鮮,但AI帶來了新的挑戰。一些專家表示,部分LLM的設計似乎天然促使用戶陷入持久的對話循環,答案往往會引出下一個提示。
AI安全開發公司Jozu的CEO兼聯合創始人Brad Micklea指出,像ChatGPT這樣的AI在回答提示時,經常會建議下一步該怎么做。
“從好的方面看,這只是為了在有限信息下改進回復,但更糟的情況是,它可能是為了讓用戶上癮。”他說,“用戶可以無視這些建議,而且通常應該無視,但就像doomscrolling一樣,這比放棄要難得多。”
智能體測試服務商Recall的CTO兼聯合創始人Carson Farmer補充說,這個問題在IT團隊中更嚴重,因為很多工程師天生愛“折騰”。
“單個工程師給AI下指令時,很快就能得到不錯的結果,”他表示,“然后你會想:‘這已經挺好,但我肯定能做到完美。’結果就陷入經典的沉沒成本謬誤——工程師會想,‘我已經花這么多時間提示了,總能把這個坑挖出來。’”
如果項目一開始沒有清晰定義什么是“好結果”,問題就更明顯。
“不了解最終目標的員工會一直兜圈子,不知道該何時收手,”Farmer說,“完美是‘好’的敵人,而LLM讓我們覺得只要再微調最后一個提示,就能達成完美。”
“過度提示”的兩種形態
觀察者發現,doomprompting主要有兩種:
第一種是個人與LLM或其他AI工具的交互,這可能發生在非工作場景,也可能在工作時間內,比如員工反復調整AI生成的郵件、代碼或研究查詢結果。
Salesforce AI執行副總裁Jayesh Govindarajan指出,第二種類型正在伴隨AI智能體的采用而出現:IT團隊不斷微調智能體,以尋找輸出的細微改進。
隨著智能體日益復雜,IT團隊會有持續追求更佳結果的誘惑。他承認,在對AI輸出保持健康懷疑與認定“已經夠好”之間,往往只有一線之隔。
“在第一代生成式AI服務和系統中,我們講究的是寫出正確的提示,讓系統在各種情境下生成理想結果,”他說,“后來自主式AI浪潮興起,我們把原本用來寫郵件的技術升級,用于編排更復雜的行動。”
Govindarajan見過一些IT團隊在不斷增加指令的過程中陷入“doom loop”,想通過疊加指令優化輸出。“所謂doomprompting,就是不斷下達指令,希望它們能發揮作用,但隨著指令越來越多、甚至相互矛盾,最終犧牲了系統的整體智能。”
需要清晰目標與邊界
與Govindarajan類似,Recall的Farmer也看到,對AI輸出的合理懷疑與無休止修正之間存在張力。
他認為,解決之道是在項目前期設定明確預期和防護欄,讓IT團隊能識別“足夠好”的結果。
Jozu的Micklea補充說,一份強有力的AI項目需求文檔,應清晰說明目標受眾、項目目標、約束條件以及“成功”的定義。
“如果在沒有清晰計劃、也不理解任務完成標準的情況下使用AI,就更容易被ChatGPT的后續建議帶偏,”他說,“要記住,ChatGPT的建議并不了解你的最終目標,它只是多個邏輯上可行的下一步之一。”
Farmer的團隊也曾嘗試讓多個智能體同時解決同一問題,類似“適者生存”的實驗。
“與其陷入doomprompting,不如讓五個智能體一起處理,再合并結果挑出最佳方案,”他建議,“既然無論如何都會消耗算力代幣,不如用節省時間的方式。”
他還建議IT團隊把智能體當作初級員工對待:“給它們明確的目標和約束,讓它們自行完成任務,再回過頭評估結果。不要讓工程經理參與每一步,否則只會導致次優結果和doomprompting。”
























