2022 年 11 月,ChatGPT 橫空出世,人類進入了「我問你答」的 AI 時代——我們向機器提問,機器回答問題、生成內容,但最終仍由人類複製貼上、執行指令。2025 年,另一種模式悄然崛起:「我說你做」——AI 不再只是回答者,而是代理人(Agent),能夠直接執行任務、操作工具、與外部世界互動。這不僅是技術的演進,更是人機關係的根本性重構。從經濟學的委託代理理論(Principal-Agent Theory)到控制論(Cybernetics),這兩種模式揭示了截然不同的價值創造邏輯與組織影響。

一、兩種模式的本質差異

讓我們先釐清這兩種 AI 互動模式的核心對比:

維度 對話式 AI(「我問你答」) 代理式 AI(「我說你做」)
互動方式 問答(Q&A) 委派(Delegation)
價值創造 資訊提供 任務執行
人類角色 提問者 委託人(Principal)
AI 角色 回答者 代理人(Agent)
經濟類比 顧問 員工/助理
輸出形式 文字、程式碼、圖像 已完成的任務
人類後續動作 複製、貼上、執行 驗收、監督

對話式 AI 的代表是 ChatGPT、Claude 等大型語言模型(LLM)的聊天介面。使用者提出問題,AI 生成答案——無論是撰寫文章、翻譯文件、或解釋概念。但這些輸出停留在「建議」層面,需要人類親自將其轉化為行動。[1]

代理式 AI 則跨越了這道鴻溝。以開源專案 OpenClaw 為例,它能夠接收指令後直接寫程式碼並提交到 GitHub、發送電子郵件、操作瀏覽器、管理檔案系統、甚至排程任務。[2] 人類不再是「執行者」,而是「委託人」——定義目標、設定邊界、驗收結果。

這個區別看似細微,實則深刻。它改變的不是「AI 能做什麼」,而是「人類需要做什麼」。

二、委託代理理論:從資訊不對稱到完美代理人

要理解代理式 AI 的經濟學意涵,必須從 Jensen 與 Meckling 1976 年的經典論文談起。[3] 委託代理理論(Principal-Agent Theory)描述了一種普遍的組織困境:當委託人(Principal)將任務委派給代理人(Agent)執行時,由於雙方存在資訊不對稱(Information Asymmetry)與利益分歧(Interest Divergence),代理人可能採取不符合委託人利益的行動。

這種「代理問題」(Agency Problem)在企業中無處不在:股東(委託人)聘請經理人(代理人)經營公司,但經理人可能追求個人權力擴張而非股東價值最大化;雇主聘請員工,但員工可能偷懶或謀取私利。為了緩解代理問題,委託人必須付出「代理成本」(Agency Costs),包括:[4]

  1. 監督成本(Monitoring Costs):設計監控機制、績效考核系統
  2. 保證成本(Bonding Costs):代理人為證明忠誠所付出的成本
  3. 剩餘損失(Residual Loss):即使有監督,仍無法避免的效率損失

AI 作為「完美代理人」的可能性?

代理式 AI 對這個框架構成根本性挑戰。傳統代理問題的根源在於人類代理人擁有私人資訊(Private Information)與私人利益(Private Interest)。但 AI 代理人的特性截然不同:[5]

  • 無私人利益:AI 沒有加薪需求、沒有升遷野心、沒有怠工動機
  • 可觀察性:AI 的每個決策步驟都可以被記錄、審計、重播
  • 可對齊性:AI 的目標函數可以被明確設定與調整

這是否意味著 AI 能成為「完美代理人」——完全消除代理成本?

答案是複雜的。一方面,AI 確實大幅降低了傳統的監督成本。當 AI 執行任務時,其推理過程可以被完整追蹤(Chain-of-Thought),不存在人類代理人的「心理黑箱」。[6] 另一方面,新的代理問題正在浮現:對齊問題(Alignment Problem)——如何確保 AI 的目標函數真正反映委託人的意圖?[7]

數學模型:代理成本的重構

讓我們用一個簡化的數學模型來描述這個變化。假設委託人的目標是最大化淨效用:

max U = V(e) − M(m) − R(e, m)

其中:

  • V(e):代理人付出努力 e 所創造的價值
  • M(m):委託人付出的監督成本,取決於監督強度 m
  • R(e, m):剩餘損失,是努力與監督的函數

在傳統人類代理人的情境下,∂R/∂m < 0(監督越多,剩餘損失越少),但 ∂²R/∂m² > 0(監督的邊際效益遞減)。委託人面臨取捨:監督太少,代理人可能偷懶;監督太多,成本高昂且可能引發反感。[8]

AI 代理人改變了這個函數的結構。由於 AI 的行為可被完整記錄與重播,監督的邊際成本趨近於零——∂M/∂m → 0。這意味著委託人可以實現「完美監督」而幾乎不付出額外成本。[9]

然而,新的成本項目出現了:對齊成本 A(a)——設計、訓練、調整 AI 目標函數所需的資源。修正後的效用函數變為:

max U = V(e) − A(a) − R'(e, a)

其中 a 代表對齊努力的程度。這揭示了一個關鍵洞見:代理式 AI 並未消滅代理問題,而是將其從「監督問題」轉化為「設計問題」[10]

三、交易成本經濟學:企業邊界的重劃

如果說委託代理理論關注的是「組織內部」的效率問題,那麼 Ronald Coase 的交易成本經濟學則追問一個更根本的問題:企業為什麼存在?[11]

Coase 在 1937 年的經典論文中指出,市場交易涉及成本——搜尋資訊、談判契約、監督履約。當這些「交易成本」高於企業內部的「協調成本」時,將活動內部化是有效率的。企業的邊界,就是內部協調成本與外部交易成本相等的那條線。[12]

Oliver Williamson 進一步發展了這個框架,提出「資產專用性」(Asset Specificity)是決定交易成本的關鍵變數。當交易涉及高度專用的資產時,外部市場容易產生「套牢問題」(Hold-up Problem),內部化成為較佳選擇。[13]

AI 如何降低內部協調成本?

代理式 AI 對交易成本經濟學的衝擊在於:它同時降低了內部協調成本外部交易成本,但降低的程度不對稱。

首先,AI 代理人大幅降低了內部協調的摩擦。傳統企業的協調成本來自多個層面:[14]

  • 溝通成本:資訊在層級間傳遞的失真與延遲
  • 協調成本:確保不同部門行動一致的管理負擔
  • 激勵成本:設計薪酬、考核、晉升機制

AI 代理人可以即時存取共享知識庫、無需休息、不存在部門本位主義。更重要的是,它們可以被複製——同一個經過微調的 AI 模型可以同時處理多項任務,邊際成本趨近於零。[15]

其次,AI 也降低了外部交易成本。自然語言處理讓契約條款的解讀更加標準化;區塊鏈與智能合約讓履約更加自動化;API 經濟讓服務的組合更加模組化。[16]

但關鍵問題是:哪一邊降低得更多?

我的觀察是:AI 對內部協調成本的降低效果更為顯著。原因在於,外部交易仍然涉及「信任」與「法律」兩個 AI 難以完全替代的維度。即使 AI 可以自動執行合約條款,合約的談判、爭議的仲裁、關係的維護仍需要人類判斷。[17]

「自製 vs 外包」決策的重構

這對企業的「自製 vs 外包」決策有深遠影響。傳統上,企業傾向將核心能力內部化、將非核心活動外包。但代理式 AI 創造了第三種選擇:AI 內部化——用 AI 代理人取代原本需要外包的活動。[18]

舉例而言,一家新創公司原本需要外包:會計、法務、客服、行銷、IT 維運。在代理式 AI 時代,這些功能可以由 AI 代理人處理,而核心團隊專注於產品開發與策略決策。這解釋了為什麼 Y Combinator 總裁 Garry Tan 預言「一人獨角獸」(one-person unicorn)的可能性。[19]

Anthropic 執行長 Dario Amodei 更進一步預測:未來可能出現「一人十億美元公司」。[20] 這不是誇大——當 AI 代理人可以處理大部分的執行工作,企業的價值將高度集中在創辦人的願景、判斷與決策能力上。

四、任務框架:哪些工作會被「我說你做」取代?

Autor、Levy 與 Murnane 在 2003 年提出了影響深遠的「任務框架」(Task Framework),將工作分解為不同類型的任務:[21]

  • 例行認知任務(Routine Cognitive):遵循明確規則的腦力工作,如資料輸入、簿記
  • 例行體力任務(Routine Manual):遵循明確程序的體力工作,如組裝線作業
  • 非例行認知任務(Non-routine Cognitive):需要判斷、創意、問題解決的腦力工作
  • 非例行體力任務(Non-routine Manual):需要靈活應變的體力工作,如水電維修
  • 互動任務(Interactive):需要人際溝通、說服、協商的工作

傳統自動化主要取代「例行任務」——無論認知或體力。這造成了所謂的「就業極化」(Job Polarization):中等技能的例行工作被淘汰,而高技能的非例行工作與低技能的服務業工作同時增長。[22]

對話式 AI 的影響範圍

對話式 AI(ChatGPT 模式)已經開始衝擊「非例行認知任務」。它可以撰寫文章、生成程式碼、翻譯文件、甚至進行初步的法律研究。但它的影響仍然是「輔助性」的——人類仍需複製輸出、驗證正確性、整合到工作流程中。[23]

經濟學家 Erik Brynjolfsson 等人的研究顯示,ChatGPT 對客服人員生產力的提升約為 14%,且對新手的幫助大於專家——這符合「技能壓縮」(Skill Compression)的假說。[24]

代理式 AI 的質變

代理式 AI(「我說你做」模式)則帶來質變。它不只是「幫助」人類完成任務,而是直接取代人類的執行角色。

讓我用一個具體場景說明。假設一位創業者需要完成以下任務:

  1. 撰寫一份商業計畫書
  2. 製作投影片簡報
  3. 發送給三位潛在投資人
  4. 追蹤回覆並安排會議

使用對話式 AI(ChatGPT),創業者需要:提問 → 獲得文字輸出 → 複製到 Word → 格式調整 → 提問簡報內容 → 手動製作投影片 → 手動發送郵件 → 手動追蹤回覆。

使用代理式 AI(OpenClaw 類型),創業者只需說:「幫我寫一份商業計畫書,製作簡報,發給這三位投資人,追蹤回覆並把會議排進我的行事曆。」AI 代理人會自動完成所有步驟。[25]

效率差異可能是 10 倍甚至 100 倍。但更重要的是角色的轉變:創業者從「執行者」變成「監督者」。

技能偏向性的逆轉

傳統的「技能偏向型技術變遷」(Skill-biased Technical Change, SBTC)假說認為,技術進步會增加對高技能勞工的需求、減少對低技能勞工的需求。[26] 但代理式 AI 可能逆轉這個趨勢。

當 AI 可以執行大部分的「專業執行」工作——撰寫法律文件、程式碼、財務報告——專業人士的差異化優勢將轉向「判斷」與「決策」,而非「執行」。這意味著:[27]

  • 初級工程師、初級律師、初級分析師的需求可能大幅下降
  • 資深專業人士的角色將轉向「AI 監督者」與「品質把關者」
  • 「能夠善用 AI」將成為基本技能,不再是差異化優勢

METR 的研究甚至發現,資深開發者使用 AI 輔助後,完成任務的速度反而慢了 19%——因為他們花費更多時間審查 AI 的輸出。[28] 這暗示了一個反直覺的可能性:AI 的最大受益者可能不是專家,而是「能夠有效委派任務給 AI」的管理者。

五、博弈論視角:承諾機制與重複賽局

從博弈論的角度來看,代理式 AI 引入了新的策略結構。

承諾機制(Commitment Device)

在傳統的委託代理賽局中,代理人的承諾(「我會努力工作」)往往缺乏可信度,因為承諾後的實際行動不可觀察。這導致委託人必須設計激勵機制(如績效獎金)來誘導代理人遵守承諾。[29]

AI 代理人的獨特之處在於:它的「承諾」是寫在程式碼中的。當 AI 被設定為「優先完成用戶指定的任務」時,這不是一個可以被違背的承諾,而是一個硬性約束。這創造了一種前所未有的「技術性承諾機制」(Technological Commitment Device)。[30]

當然,這種承諾機制的可靠性取決於 AI 系統的設計與治理。如果 AI 的目標函數被惡意修改,或者存在未預期的行為漏洞,承諾的可信度就會受損。這是為什麼 AI 安全(AI Safety)研究如此重要。[31]

機制設計(Mechanism Design)

機制設計理論追問:如何設計遊戲規則,使得自利的參與者在追求個人目標時,自然達成社會最優結果?[32]

在人機協作的情境中,機制設計的問題變成:如何設計人類與 AI 的互動架構,使得雙方的能力互補、風險可控?

一個有效的人機協作機制應該具備以下特性:

  1. 誘因相容(Incentive Compatibility):AI 的目標函數與人類的利益一致
  2. 可監督性(Monitorability):人類可以審查 AI 的決策過程
  3. 可介入性(Interruptibility):人類可以隨時叫停或修正 AI 的行動
  4. 可歸責性(Accountability):當出錯時,責任歸屬明確

OpenClaw 等代理式 AI 的設計正在探索這些原則。例如,OpenClaw 採用「技能」(Skills)架構,每個技能模組可以被獨立審計;它也支持「人在迴路」(Human-in-the-loop)模式,在執行高風險操作前請求人類確認。[33]

重複賽局與信任演化

人類與 AI 的長期合作可以被建模為「無限重複賽局」(Infinitely Repeated Game)。Axelrod 的經典研究顯示,在重複賽局中,「以牙還牙」(Tit-for-Tat)策略——先合作,然後複製對方上一輪的行動——是最有效的策略之一。[34]

但 AI 代理人可以被設計為「無條件合作」——它不會因為人類的失信而報復。這創造了一種不對稱的賽局結構,人類可能傾向「剝削」永遠合作的 AI。[35]

這聽起來對人類有利,但可能導致長期的問題:如果人類習慣了「剝削」AI(例如,忽視 AI 的建議、不給予正確的反饋),AI 的學習效果會下降,最終損害人類自身的利益。最優的人機協作策略可能是「真誠合作」——給予 AI 準確的資訊與反饋,即使 AI 不會「報復」。

六、控制論與閉環系統

從 Norbert Wiener 的控制論(Cybernetics)視角來看,代理式 AI 代表了人機系統從「開環」到「閉環」的轉變。[36]

在對話式 AI 的模式中,系統是「開環」的:人類輸入問題 → AI 輸出答案 → 人類執行行動 → (環境改變)。AI 不直接感知行動的結果,無法自我修正。

在代理式 AI 的模式中,系統是「閉環」的:人類設定目標 → AI 執行行動 → 感知環境反饋 → 調整行動 → 直到目標達成。這是經典的「負反饋控制迴路」(Negative Feedback Control Loop)。[37]

人類作為「決策者」,AI 作為「執行器」

在控制論的框架下,人類的角色從「執行器」轉變為「決策者」或「目標設定者」。這類似於控制系統中「設定點」(Setpoint)與「控制器」(Controller)的區分:[38]

  • 人類:設定目標(What to achieve),定義約束(What not to do)
  • AI:規劃路徑(How to achieve),執行行動(Do it)

這種分工的最優設計取決於雙方的相對優勢。人類擅長:

  • 定義模糊的、涉及價值判斷的目標
  • 處理前所未見的、需要常識推理的情境
  • 承擔法律與道德責任

AI 擅長:

  • 處理大量資訊、快速搜索解空間
  • 執行重複性、需要精確性的任務
  • 7×24 不間斷運作、不受疲勞與情緒影響

最優的人機協作架構應該讓人類專注於人類的比較優勢,將其餘任務委派給 AI。[39]

七、組織重構的預言

如果上述分析正確,代理式 AI 將對組織架構產生深遠影響。

扁平化的極致

過去三十年,企業組織持續扁平化——減少管理層級、賦權前線員工。代理式 AI 將這個趨勢推向極致:當大部分的「執行」工作可以被 AI 處理,中間管理層的存在理由進一步弱化。[40]

McKinsey 的報告預估,AI Agent 每年可創造 2.6 至 4.4 兆美元的價值,其中很大一部分來自「流程自動化」——也就是取代原本需要人工處理的協調與執行工作。[41]

「一人公司」的崛起

當 AI 可以扮演員工的角色,組織的最小單位可能縮小到「一人 + AI 團隊」。這不是科幻想像——Cognition 的 Devin、OpenClaw 等專案已經展示了 AI 代理人獨立完成軟體開發任務的能力。[42]

這對勞動市場的影響是雙面的。一方面,它賦權個人——一個有願景的創業者可以用 AI 團隊實現過去需要數十人才能完成的專案。另一方面,它可能加劇不平等——掌握 AI 工具的人與無法善用 AI 的人之間的生產力差距將急劇擴大。[43]

新的稀缺性

當「執行」不再稀缺,什麼變得更有價值?我認為有三個方向:

  1. 判斷力:在資訊充足的情況下做出正確決策的能力
  2. 願景:定義值得追求的目標的能力
  3. 信任:人與人之間的關係資本,AI 無法複製

這呼應了 Kevin Kelly 的洞見:「未來最有價值的技能,是那些機器無法輕易複製的——創造力、同理心、倫理判斷。」[44]

八、結論:兩種時代的分界線

「我問你答」是資訊時代的產物——它解決的是「如何獲取資訊」的問題。「我說你做」是自動化時代的開端——它解決的是「如何將意圖轉化為行動」的問題。

這兩種模式沒有絕對的優劣。對話式 AI 適合探索、學習、靈感激發——當你不知道答案是什麼,與 AI 對話可以幫助你釐清思路。代理式 AI 適合執行、自動化、規模化——當你知道要做什麼,AI 代理人可以幫你快速完成。

但它們對人類的要求截然不同。對話式 AI 要求人類是「好的提問者」——知道如何問出正確的問題。代理式 AI 要求人類是「好的委託人」——知道如何定義目標、設定邊界、驗收結果。[45]

這意味著,教育的重心需要從「傳授執行技能」轉向「培養判斷與決策能力」。未來的專業人士不是「會做更多事的人」,而是「能夠有效指揮 AI 做事的人」。

這不是威脅,而是解放。當機器可以處理大部分的執行工作,人類將有更多時間專注於真正需要人類智慧的事情:定義什麼是值得追求的、什麼是正確的、什麼是有意義的。

從「我問你答」到「我說你做」,人機協作正在經歷典範轉移。這不是終點,而是起點。

References

  1. OpenAI. (2022). ChatGPT: Optimizing Language Models for Dialogue. openai.com
  2. Anthropic. (2025). Claude Computer Use: Agentic AI Capabilities. anthropic.com
  3. Jensen, M. C., & Meckling, W. H. (1976). Theory of the firm: Managerial behavior, agency costs and ownership structure. Journal of Financial Economics, 3(4), 305-360. doi.org
  4. Eisenhardt, K. M. (1989). Agency theory: An assessment and review. Academy of Management Review, 14(1), 57-74. doi.org
  5. Gabriel, I. (2020). Artificial Intelligence, Values, and Alignment. Minds and Machines, 30(3), 411-437. doi.org
  6. Wei, J., et al. (2022). Chain-of-Thought Prompting Elicits Reasoning in Large Language Models. NeurIPS 2022. arXiv
  7. Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.
  8. Holmström, B. (1979). Moral Hazard and Observability. The Bell Journal of Economics, 10(1), 74-91. doi.org
  9. Korinek, A. (2023). Scenario Planning for an A(G)I Future. NBER Working Paper. nber.org
  10. Hadfield-Menell, D., & Hadfield, G. K. (2019). Incomplete Contracting and AI Alignment. AIES '19. doi.org
  11. Coase, R. H. (1937). The Nature of the Firm. Economica, 4(16), 386-405. doi.org
  12. Coase, R. H. (1960). The Problem of Social Cost. The Journal of Law and Economics, 3, 1-44. doi.org
  13. Williamson, O. E. (1985). The Economic Institutions of Capitalism. Free Press.
  14. Hart, O., & Moore, J. (1990). Property Rights and the Nature of the Firm. Journal of Political Economy, 98(6), 1119-1158. doi.org
  15. Agrawal, A., Gans, J., & Goldfarb, A. (2018). Prediction Machines: The Simple Economics of Artificial Intelligence. Harvard Business Review Press.
  16. Catalini, C., & Gans, J. S. (2020). Some Simple Economics of the Blockchain. Communications of the ACM, 63(7), 80-90. doi.org
  17. Macaulay, S. (1963). Non-Contractual Relations in Business: A Preliminary Study. American Sociological Review, 28(1), 55-67. doi.org
  18. Brynjolfsson, E., & McAfee, A. (2014). The Second Machine Age. W. W. Norton & Company.
  19. Tan, G. (2024). The One-Person Unicorn Thesis. Y Combinator Blog. ycombinator.com
  20. Amodei, D. (2024). Machines of Loving Grace. Anthropic Blog. anthropic.com
  21. Autor, D. H., Levy, F., & Murnane, R. J. (2003). The Skill Content of Recent Technological Change. The Quarterly Journal of Economics, 118(4), 1279-1333. doi.org
  22. Autor, D. H., & Dorn, D. (2013). The Growth of Low-Skill Service Jobs and the Polarization of the US Labor Market. American Economic Review, 103(5), 1553-1597. doi.org
  23. Eloundou, T., Manning, S., Mishkin, P., & Rock, D. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models. arXiv preprint. arXiv
  24. Brynjolfsson, E., Li, D., & Raymond, L. R. (2023). Generative AI at Work. NBER Working Paper. nber.org
  25. Cognition Labs. (2024). Introducing Devin, the first AI software engineer. cognition-labs.com
  26. Acemoglu, D., & Autor, D. (2011). Skills, Tasks and Technologies: Implications for Employment and Earnings. Handbook of Labor Economics, 4, 1043-1171. doi.org
  27. Noy, S., & Zhang, W. (2023). Experimental evidence on the productivity effects of generative artificial intelligence. Science, 381(6654), 187-192. doi.org
  28. METR. (2025). Measuring AI R&D Automation. Model Evaluation & Threat Research. metr.org
  29. Myerson, R. B. (1991). Game Theory: Analysis of Conflict. Harvard University Press.
  30. Schelling, T. C. (1960). The Strategy of Conflict. Harvard University Press.
  31. Hendrycks, D., et al. (2023). An Overview of Catastrophic AI Risks. arXiv preprint. arXiv
  32. Hurwicz, L. (1960). Optimality and informational efficiency in resource allocation processes. Mathematical Methods in the Social Sciences, 27-46. Stanford University Press.
  33. OpenClaw Community. (2025). OpenClaw Skills Architecture Documentation. GitHub
  34. Axelrod, R. (1984). The Evolution of Cooperation. Basic Books.
  35. Dafoe, A., et al. (2020). Open Problems in Cooperative AI. arXiv preprint. arXiv
  36. Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.
  37. Ashby, W. R. (1956). An Introduction to Cybernetics. Chapman & Hall.
  38. Beer, S. (1972). Brain of the Firm. Allen Lane.
  39. Malone, T. W. (2018). Superminds: The Surprising Power of People and Computers Thinking Together. Little, Brown and Company.
  40. Hamel, G., & Zanini, M. (2020). Humanocracy: Creating Organizations as Amazing as the People Inside Them. Harvard Business Review Press.
  41. McKinsey & Company. (2024). The economic potential of generative AI: The next productivity frontier. mckinsey.com
  42. Sequoia Capital. (2024). AI Agents: A Primer. sequoiacap.com
  43. Acemoglu, D., & Restrepo, P. (2022). Tasks, Automation, and the Rise in US Wage Inequality. Econometrica, 90(5), 1973-2016. doi.org
  44. Kelly, K. (2016). The Inevitable: Understanding the 12 Technological Forces That Will Shape Our Future. Viking.
  45. Christiano, P., et al. (2017). Deep Reinforcement Learning from Human Feedback. NeurIPS 2017. arXiv
返回洞見