隨著人工智慧快速發展,「文科生能不能做 AI」成為網路上反覆出現的熱門話題。有人把它包裝成逆襲故事,也有人將其視為技術失控的警訊。但若只停留在「文科生也能做 AI」或「文科生別碰 AI」的二元對立,恐怕無法真正看見 AI 時代的人才需求正在如何改變。
近期引發爭議的一起案例,是一名自稱「一行代碼都不會寫」的 AI 創業者,透過 AI Agent 向熱門開源專案大量提交程式碼,試圖驗證完全不懂技術的人,是否也能僅靠指揮 AI 參與頂級專案。最終,他共提出 134 個 PR,僅 21 個被合併,其餘多數遭拒。前期部分內容還獲得維護者認可,但在下達加速指令後,Agent 開始批量產出低品質程式碼,甚至頻繁催促審核,最終引發社群反彈與管理方介入。
這起事件被不少人視為「文科生做 AI」的失敗案例,但問題其實不在文科背景,而在於操作者將「不懂技術」當成優勢,卻缺乏對底層邏輯與風險的基本理解,導致失控後連問題出在哪裡都無法判斷。真正的教訓,不是文科不能碰 AI,而是任何人使用 AI,都不能把知識空白誤認為方法創新。
不過,這並不代表文科訓練在 AI 領域沒有位置。相反地,在 AI 對齊、安全與人機互動等關鍵環節,某些傳統上被歸為文科的學科,反而正成為核心能力。
以 Anthropic 的 Amanda Askell 為例,她擁有哲學背景,長期投入 Claude 的性格對齊工作,研究模型如何與人類對話、如何表達不確定性,以及如何在價值衝突中拿捏分寸。這類工作看似抽象,卻直接影響模型是否可靠、誠實、得體。當大模型不再只追求「會回答」,而是必須「回答得值得信任」,哲學與倫理學的價值便愈發凸顯。
另一個容易被誤解的領域是語言學。中文網路常將語言學背景的人簡化為「文科生跨界做 AI」,但實際上,語言學與自然語言處理本就有深厚連結。從句法分析、分詞設計,到語義理解、多語言建模,再到人類回饋強化學習中的回答標註判斷,語言學始終深植於大模型技術棧之中。尤其在中文等缺乏天然詞界的語言裡,模型如何理解語句與切分語意,本身就不只是工程問題,更需要對語言結構的深入掌握。
也就是說,同樣掛著「文科生」標籤,背後其實有完全不同的三條路徑:一種是把「不懂技術」包裝成流量賣點,卻沒有真正的學科能力支撐;一種是哲學、倫理學等知識,成為 AI 對齊與安全設計的重要基礎;還有一種則是語言學這類長期被低估、卻早已深度參與 AI 發展的學科。
真正值得討論的,從來不是「文科生能不能逆襲」,而是 AI 時代正在重新定義什麼叫做有用的知識。當模型愈來愈強大,產業競爭的焦點也不再只是能不能做出來,而是能不能做得可靠、可控、可被信任。在這樣的變化下,那些過去不容易被看見的知識基礎,正逐漸轉化為新的核心需求。這或許才是「文科與 AI」這場討論背後,真正發生的轉向。

