每天清晨,全球數百萬開發者打開 VS Code,啟動 GitHub Copilot,開始一天的工作。他們輸入幾個字元,AI 自動補全整段程式碼;他們描述一個功能,AI 生成完整的實作。生產力確實提高了——GitHub 宣稱 Copilot 能讓開發者完成任務的速度提升 55%。[1] 但在這場效率革命的背後,一個根本的問題被遮蔽了:當你的工作越來越依賴一個你無法控制、無法理解、甚至無法離開的工具時,你究竟是工具的主人,還是工具的僕人?
一、數據殖民主義:概念的起源與演化
從土地到數據:殖民邏輯的延續
「殖民主義」這個詞,喚起的是十五世紀以來歐洲列強對美洲、非洲、亞洲的征服與掠奪。傳統殖民主義的核心邏輯是:佔有土地、攫取資源、剝削勞動、建立依附關係。被殖民者喪失了對自己土地和勞動成果的控制權,淪為宗主國經濟體系的附庸。[2]
2019 年,傳播學者尼克·庫德里(Nick Couldry)與烏利塞斯·梅希亞斯(Ulises Mejias)提出「數據殖民主義」(data colonialism)的概念,指出數位時代正在重演殖民邏輯——只是被掠奪的不再是土地,而是數據。[3] 他們認為,科技巨頭透過各種「數據關係」(data relations),將人類的日常行為、社交互動、甚至生理狀態轉化為可被擷取、儲存、分析、變現的數據商品。這種「人類生活的持續商品化」,構成了一種新型的殖民剝削。
生成式 AI:數據殖民的新階段
生成式 AI 的出現,將數據殖民推進到一個新階段。傳統的數據殖民是「監控資本主義」式的:平台收集你的行為數據,用於精準廣告投放。[4] 但生成式 AI 不只是監控,它還「學習」——它吸收了人類數千年累積的知識、創作、技藝,將其壓縮成模型參數,然後以訂閱服務的形式賣回給我們。
這個過程存在根本的不對稱:訓練 GPT-4 所使用的數據,包括了維基百科、GitHub 公開程式碼、學術論文、新聞報導、小說、部落格……這些是人類集體智慧的結晶,由數百萬人無償貢獻。[5] 然而,這些貢獻者既沒有同意被使用,也沒有獲得任何補償。更諷刺的是,當 AI 模型訓練完成後,這些原始貢獻者還必須付費訂閱,才能「使用」那個由他們自己的作品訓練出來的模型。
二、數據的真相:誰在使用 AI,誰在被 AI 使用
開發者的 AI 依賴
讓我們先看看軟體開發領域的實況。根據 Stack Overflow 2024 年開發者調查,76% 的受訪者表示正在使用或計劃使用 AI 工具進行程式開發。[6] 這個數字比 2023 年的 70% 又增加了 6 個百分點。在已經使用 AI 工具的開發者中,最常用的工具依次是:
- ChatGPT:82.1% 的 AI 用戶使用
- GitHub Copilot:45.3%
- Visual Studio IntelliCode:23.7%
- Tabnine:8.6%
GitHub 的內部數據更加驚人。截至 2024 年,GitHub Copilot 在全球擁有超過 180 萬付費用戶,被超過 5 萬家企業採用。[7] 在使用 Copilot 的開發者中,平均有 46% 的程式碼是由 AI 生成的,在某些語言(如 Java)中,這個比例甚至超過 60%。[8]
寫作者與設計師的困境
軟體開發只是冰山一角。在內容創作領域,AI 的滲透同樣迅速。2024 年的一項調查顯示,85.1% 的行銷人員使用 AI 生成內容,73% 的公司使用生成式 AI 來撰寫文案。[9] 在設計領域,Midjourney、DALL-E、Stable Diffusion 等工具正在改變視覺創作的流程——許多設計師坦言,客戶已經開始要求他們使用 AI 工具來加速產出、降低成本。
這些數據描繪的是一幅令人警醒的圖景:知識工作者——無論是寫程式碼、寫文案、還是做設計——正在以驚人的速度將自己的工作流程與 AI 工具綁定。這種綁定帶來了效率的提升,但也帶來了深層的依賴。
三、碼農變佃農:新型勞動依附的形成
佃農制度的回聲
讓我們借用「佃農」這個隱喻來理解當前的處境。傳統的佃農制度中,農民不擁有土地,而是向地主租借土地耕作。他們擁有「勞動的自由」——可以選擇努力或怠惰、可以選擇這塊地或那塊地——但這種自由是受限的自由。他們依附於土地制度,離開土地就無法生存;他們的收成必須與地主分成,勞動的成果無法完全歸自己所有。[10]
今天的開發者,何嘗不是如此?他們不擁有 AI 模型——那是 OpenAI、Google、Anthropic 的私有財產。他們不擁有訓練 AI 所使用的數據——儘管他們自己的程式碼可能就在其中。他們甚至不完全理解 AI 是如何運作的——對大多數開發者而言,AI 是一個黑箱,一個必須信任但無法驗證的神諭。[11]
從「技藝」到「提示」:技能的空心化
更深層的問題是「去技能化」(deskilling)。勞動社會學家哈里·布雷弗曼(Harry Braverman)在 1974 年的經典著作《勞動與壟斷資本》中指出,資本主義傾向於將複雜的技藝分解為簡單的、可標準化的任務,從而降低對熟練工人的依賴、壓低勞動成本。[12] 這個過程,從工業革命時期的手工業者到今天的知識工作者,一脈相承。
生成式 AI 正在加速這個過程。當開發者越來越依賴 Copilot 來寫程式碼時,他們是否還在培養自己的程式設計能力?當設計師越來越依賴 Midjourney 來生成圖像時,他們的視覺素養是否正在退化?研究顯示,過度依賴 GPS 導航會削弱人類的空間認知能力;[13] 過度依賴 AI 編碼工具,是否也會削弱開發者的程式設計直覺?
一位資深開發者在 Hacker News 上的評論一針見血:「我注意到,當我長時間使用 Copilot 後,我開始忘記某些函式庫的 API。以前我能憑記憶寫出來的東西,現在我習慣性地等待 AI 提示。這讓我感到不安——我的技能正在被外包給一個我無法控制的系統。」[14]
生產力的陷阱
反對這種批判的人會說:「但 AI 確實提高了生產力啊!」這話沒錯。GitHub 的研究顯示,使用 Copilot 的開發者完成任務的速度提升了 55%,而且自我感覺更有成就感、更少挫折感。[15] 這不是好事嗎?
問題在於:「生產力」的提升,最終惠及了誰?在傳統的僱傭關係中,生產力提升的收益往往被資方攫取——工人生產得更快,但工資並沒有相應增加。[16] 在 AI 輔助的新模式下,這種不對稱可能更加嚴重:開發者的生產力提升了,但這意味著同樣的產出可以用更少的人完成——換言之,AI 的效率紅利,可能轉化為裁員的壓力。
更微妙的是「隱性成本」。使用 AI 工具需要付費訂閱(Copilot 每月 $19 起、ChatGPT Plus $20);[17] 使用 AI 生成的程式碼需要額外的審查和測試時間;AI 生成的錯誤可能更難發現、更難除錯。這些成本往往被「生產力提升」的敘事所掩蓋。
四、認知外包與主體性的喪失
延伸心智的雙面刃
哲學家安迪·克拉克(Andy Clark)與大衛·查默斯(David Chalmers)在 1998 年提出「延伸心智」(extended mind)假說:認知過程不僅發生在大腦內部,也可以延伸到外部工具和環境。[18] 從這個角度看,筆記本、計算機、智慧型手機,都是我們認知系統的延伸。AI 不過是這個延伸的最新形態。
但「延伸心智」的前提是:你對這些工具保有一定程度的控制和理解。當你使用計算機時,你知道它在做什麼——它只是執行你指定的數學運算。但當你使用 GPT-4 時,你真的知道它在做什麼嗎?它為什麼給出這個答案而非那個?它的「推理」是否可靠?這些問題,即使是 AI 研究者也無法完全回答。[19]
從「使用工具」到「被工具使用」
韓炳哲(Byung-Chul Han)在《倦怠社會》中指出,現代社會的權力運作已經從「規訓」轉向「績效」:人們不再需要外部的強制,而是自我要求、自我剝削、自我優化。[20] AI 工具正是這種「績效社會」的完美載體——它不強迫你使用,但你「自願」使用,因為不使用就會落後於同儕、落後於市場。
這種「自願的依賴」特別難以察覺和抵抗。你不會覺得自己被剝削——畢竟,是你自己選擇使用 Copilot 的;你不會覺得自己被控制——畢竟,你隨時可以關掉它。但事實上,當你的工作流程、思維模式、甚至職業認同都與 AI 工具深度綁定時,「不使用」已經不再是一個現實的選項。[21]
創造力的異化
對寫作者和設計師而言,問題更加尖銳。程式碼至少還有「對錯」可言——能跑的程式碼就是能跑的程式碼。但創作呢?當一篇文章是由 AI 生成、人類編輯的,這篇文章的「作者」是誰?當一幅圖像是由 AI 根據提示詞生成的,這幅圖像的「創作者」是誰?
本雅明(Walter Benjamin)在 1935 年的〈機械複製時代的藝術作品〉中提出「靈光」(aura)的概念:藝術作品的獨特性和權威性來自其「此時此地」的存在,來自創作者與作品之間不可複製的關係。[22] 機械複製(攝影、印刷)已經削弱了這種靈光;AI 生成則可能徹底消解它。當任何人都可以用一句提示詞生成「大師級」的圖像時,「創作」還意味著什麼?
五、平台封建主義:新的權力結構
從資本主義到封建主義?
經濟學家雅尼斯·瓦魯法基斯(Yanis Varoufakis)在《技術封建主義》中提出一個挑釁性的論點:我們正在從資本主義退回到某種形式的封建主義。[23] 傳統資本主義依賴市場競爭——企業通過生產更好、更便宜的商品來獲利。但科技巨頭的獲利模式不同:他們建立「圍牆花園」,透過網絡效應和鎖定效應,讓用戶無法離開,然後收取「數位地租」。
這個分析完美適用於生成式 AI 領域。OpenAI、Google、Anthropic 等公司投入數十億美元訓練模型,建立了難以跨越的進入門檻。[24] 他們不是在「市場」中競爭,而是在建立「領地」——你可以選擇進入這個領地(付費訂閱),或者留在外面(落後於時代)。一旦進入,你就被鎖定了:你的工作流程適應了特定的工具,你的提示詞庫是為特定的模型優化的,你的專案歷史儲存在特定的平台上。
數據的「原始積累」
馬克思在《資本論》中描述了資本主義的「原始積累」(primitive accumulation):資本家通過圈地運動、殖民掠奪等手段,積累了最初的資本,為工業化奠定了基礎。[25] 生成式 AI 的崛起,同樣經歷了一場「數據的原始積累」:科技公司透過爬蟲、API、用戶協議等手段,大規模擷取了人類累積數千年的知識和創作。
這場積累的不正義性是顯而易見的。維基百科的編輯者沒有同意讓自己的貢獻被用於訓練商業 AI;GitHub 上的開源開發者沒有同意讓自己的程式碼被用於訓練 Copilot;[26] 藝術家沒有同意讓自己的作品被用於訓練 Stable Diffusion。當這些「原始數據」被轉化為價值數百億美元的 AI 模型時,原始貢獻者分文未得。
誰擁有智慧?
這引出一個根本的法律和倫理問題:AI 模型的「智慧」——如果可以這麼稱呼的話——究竟屬於誰?從法律角度看,這是一個未決的問題。美國正在進行的 Sarah Andersen 等人訴 Stability AI 案,[27] 以及《紐約時報》訴 OpenAI 案,[28] 都在挑戰 AI 公司未經授權使用版權作品的合法性。但即使這些訴訟成功,它們也只能處理「版權」這一狹窄的法律範疇——更廣泛的「集體智慧被私有化」的問題,仍然沒有解答。
六、抵抗與替代:可能的出路
開源 AI 的希望與限制
面對科技巨頭的壟斷,開源社群正在嘗試建立替代方案。Meta 的 LLaMA 系列、Mistral AI 的模型、Stability AI 的 Stable Diffusion,都以開源或半開源的形式釋出。[29] 這些努力值得肯定——它們降低了 AI 的進入門檻,讓更多人能夠使用、研究、修改 AI 模型。
但開源並不能解決所有問題。首先,訓練大型模型所需的算力和數據,仍然集中在少數大公司手中——開源模型往往是這些公司「施捨」的副產品。其次,開源模型的「開源」程度往往有限——LLaMA 的使用受到授權限制,訓練數據並未公開。最後,即使有了完全開源的模型,普通開發者也難以自行部署和運行——他們仍然需要依賴雲端服務,而雲端服務仍然被少數公司壟斷。
「慢工作」的可能
也許,我們需要的不是更好的工具,而是對「生產力」本身的重新思考。社會學家哈特穆特·羅薩(Hartmut Rosa)提出「加速社會」的批判:現代社會被「加速」的邏輯所支配——我們必須更快地工作、更快地消費、更快地回應。[30] AI 工具正是這種加速邏輯的體現——它們的承諾是讓你更快地完成任務,但這種「更快」只會帶來更多的任務,而非更多的閒暇。
與「加速」相對的是「共鳴」(Resonanz)——羅薩認為,美好的生活不在於高效率地完成任務,而在於與世界建立有意義的、回應性的關係。從這個角度看,「手寫」程式碼、「手繪」插畫、「手寫」文章,不是落後的生產方式,而是與自己的工作建立「共鳴」關係的途徑。
重新定義「專業」
最後,我們需要重新思考「專業」的意義。在 AI 之前,「專業」意味著掌握特定的知識和技能——會寫程式碼、會設計版面、會撰寫文案。在 AI 之後,這些「硬技能」的價值可能下降,因為 AI 也會做,而且做得更快。[31]
但「專業」不只是技能,更是判斷力、品味、倫理、對脈絡的理解。AI 可以生成程式碼,但不能判斷這段程式碼是否符合專案的整體架構;AI 可以生成文案,但不能判斷這個訊息是否適合目標受眾;AI 可以生成圖像,但不能判斷這個視覺風格是否符合品牌調性。這些判斷,仍然需要人類——但前提是,人類仍然保有做出這些判斷的能力,而不是將一切外包給機器。
結語:清醒的依賴
本文的目的不是呼籲抵制 AI——那既不現實,也不明智。AI 是一項強大的技術,它確實能夠提升生產力、降低門檻、實現以前不可能的事情。問題不在於「是否使用 AI」,而在於「如何使用 AI」。
我們需要的是一種「清醒的依賴」——使用 AI 工具,但清楚地意識到自己正在依賴什麼、犧牲什麼、換取什麼。我們需要問自己:這個工具是在幫助我發展能力,還是在取代我的能力?這個工具是在擴展我的自主性,還是在削弱它?這個工具的效益,最終歸於誰?[32]
數百年前,佃農們也許無法想像一個沒有地主的世界。但他們的抗爭——從農民起義到土地改革——最終改變了歷史的軌跡。今天的「數位佃農」,面對的是更加隱蔽、更加滲透、更加難以抵抗的權力結構。但這不意味著抵抗是不可能的。認清處境,是抵抗的第一步。