AI 正在放大技術選型的風險:為什么我們更應該“選擇無聊的技術”
大約十年前,Dan McKinley 的一篇經典雄文《選擇無聊的技術》(Choose Boring Technology)在工程師圈子里廣為流傳。它的核心觀點簡單而深刻:一家公司的“創新代幣”(innovation tokens)是有限的,應該用在刀刃上,而不是隨意揮霍在那些閃亮但未經證實的新技術上。
“無聊”的技術,比如 Postgres、Python、PHP,它們的優勢不在于新潮,而在于其故障模式和能力邊界是眾所周知的。當系統在凌晨三點崩潰時,你需要的是一個有大量 Stack Overflow 答案可以求助的領域,而不是一片你必須獨自開拓的未知“無人區”。
這個原則,在過去十年里,成為了無數資深工程師的技術選型座右銘。然而,十年后的今天,隨著 LLMs 和 Agentic AI 編程工具的崛起,業界仍然認為:這個原則不僅沒有過時,反而比以往任何時候都更加重要,甚至更加致命。
AI 時代的“誘惑”與“危險”
AI 編程助手帶來了一個全新的變數。這個變數既有趣,又極其危險。
這里的“有趣”在于,現代 AI 工具(無論是 Claude 還是 Copilot)已經非常擅長為幾乎任何你能想到的技術棧,生成“看起來非常專業”的代碼。你給它一個 prompt,讓它用最新的 JavaScript 框架、GraphQL federation 和 Kubernetes 來實現一套微服務,它會迅速給你返回一堆代碼——這些代碼可能遵循了所有社區慣例,命名規范無可挑剔,錯誤處理看起來也像模像樣,甚至,它可能真的能運行。
這就是 AI 的“誘惑”。它讓你感覺,掌握任何新技術都不過是彈指一揮間的事。
而“危險”也恰恰源于此。當你在一個你不熟悉的技術領域里使用 AI 時,一個致命的問題出現了:
你根本無法驗證,AI 是不是在“一本正經地胡說八道”(bullshitting you)。
我親眼見過,有工程師接受了 AI 生成的代碼,而這些代碼里:
- 使用了早已廢棄的 API。
- 實現了嚴重的安全反模式。
- 制造了只有在生產負載下才會暴露的、極其隱蔽的性能問題。
為什么會這樣?因為這些代碼“看起來是對的”。但它的錯誤,是深植于技術細節中的,只有真正熟悉這門技術的人才能一眼看穿。
風險的“乘法效應”
過去,我們說選擇一門新技術是增加了一個“未知數”。而在 AI 時代,當你將不熟悉的技術與 AI 生成的代碼結合時,你不再是簡單地增加未知數,而是在乘以未知數。
你不知道這個框架是否是解決你問題的最佳選擇;你不知道 AI 的實現是否遵循了最佳實踐;你不知道生成的代碼中,哪些是無傷大雅的模板,哪些是核心業務邏輯;你更不知道,這套組合拳將會以何種奇特的方式在未來失效。
這已經不是簡單的“貨物崇拜”(cargo-culting)了,這是指數級的貨物崇拜。
注:“貨物崇拜”(cargo culting)是一個源自太平洋島嶼的概念,最早用于描述一些島嶼居民對西方物資和技術的崇拜現象。在二戰期間,許多西方士兵在這些島嶼上駐扎,帶來了大量的物資和現代技術。當地人對這些物品產生了強烈的向往,認為這些物品是神靈的恩賜。
AI 時代的“技術選型第一性原理”
那么,我們該怎么辦?答案出奇地簡單,它讓我們回歸到了那個最樸素的原則:
AI 是你所理解技術的“力量倍增器”,卻是你不理解技術的“脆弱拐杖”。
當你選擇“無聊”的技術,也就是你真正精通的技術時,AI 會變得無比強大。你可以讓 Claude 幫你生成 Rails 代碼,因為你對 Rails 了如指掌,能輕易發現它何時提出了可疑的建議。你可以讓 Copilot 輔助你寫 JavaScript,因為你理解這門語言的怪癖,能對它的產出進行事實核查。
在這種模式下,AI 是你的副駕駛,為你處理繁瑣的路線,而你始終掌握著方向盤。
給 AI 時代開發者的實踐指南
那么,在一個充滿 AI 編程助手的世界里,我們該如何應用“選擇無聊的技術”這一原則呢?這里有三條黃金法則:
- 評估新技術時先自問:“如果 AI 為它生成了代碼,我有能力審查嗎?” 如果答案是否定的,那么這項技術或許不應該用于任何對你而言是任務關鍵型(mission-critical)的項目。
- 學習新技術時(當你決定用掉一個“創新代幣”時): 請務必花時間深入理解它,達到能對 AI 的建議進行獨立事實核查的程度。不要只是復制、粘貼,然后祈禱好運。
- 抵制誘惑: 不要把 AI 工具當作一個借口,讓你能同時擁抱一門新語言、一個新框架和一套新基礎設施。AI 可能會給你一種“我能搞定一切”的錯覺,但你無法真正驗證其中任何一環。
小結:理解,是前所未有的寶貴資產
“選擇無聊的技術”這個論點的初衷,是為了降低系統的運維復雜性和團隊的認知開銷。在 AI 時代,這些理由依然成立,但我們又增加了一個更重大的風險:對抗由 AI 帶來的、致命的虛假自信。
如今的風險更高了,因為 AI 生成的代碼質量越來越好,使得發現問題變得更加困難。過去,壞代碼通常看起來就很糟糕。現在,有問題的代碼可能看起來相當不錯,直到你對該領域足夠了解,才能注意到那些微妙的致命傷。
所以,我的建議始終不變:當你要解決一個問題時,請使用你已經了解的技術。當你想要學習新東西時,那就專心去學習。不要將 AI 生成的代碼,誤認為是真正的理解。
在一個 AI 可以自信地為你從未用過的技術生成數千行代碼的世界里,你自己的、深刻的理解,比以往任何時候都更有價值。
資料鏈接:


























