2022 年 11 月,ChatGPT 橫空出世,人類進入了「我問你答」的 AI 時代——我們向機器提問,機器回答問題、生成內容,但最終仍由人類複製貼上、執行指令。2025 年,另一種模式悄然崛起:「我說你做」——AI 不再只是回答者,而是代理人(Agent),能夠直接執行任務、操作工具、與外部世界互動。這不僅是技術的演進,更是人機關係的根本性重構。從經濟學的委託代理理論(Principal-Agent Theory)到控制論(Cybernetics),這兩種模式揭示了截然不同的價值創造邏輯與組織影響。
一、兩種模式的本質差異
讓我們先釐清這兩種 AI 互動模式的核心對比:
| 維度 | 對話式 AI(「我問你答」) | 代理式 AI(「我說你做」) |
|---|---|---|
| 互動方式 | 問答(Q&A) | 委派(Delegation) |
| 價值創造 | 資訊提供 | 任務執行 |
| 人類角色 | 提問者 | 委託人(Principal) |
| AI 角色 | 回答者 | 代理人(Agent) |
| 經濟類比 | 顧問 | 員工/助理 |
| 輸出形式 | 文字、程式碼、圖像 | 已完成的任務 |
| 人類後續動作 | 複製、貼上、執行 | 驗收、監督 |
對話式 AI 的代表是 ChatGPT、Claude 等大型語言模型(LLM)的聊天介面。使用者提出問題,AI 生成答案——無論是撰寫文章、翻譯文件、或解釋概念。但這些輸出停留在「建議」層面,需要人類親自將其轉化為行動。[1]
代理式 AI 則跨越了這道鴻溝。以開源專案 OpenClaw 為例,它能夠接收指令後直接寫程式碼並提交到 GitHub、發送電子郵件、操作瀏覽器、管理檔案系統、甚至排程任務。[2] 人類不再是「執行者」,而是「委託人」——定義目標、設定邊界、驗收結果。
這個區別看似細微,實則深刻。它改變的不是「AI 能做什麼」,而是「人類需要做什麼」。
二、委託代理理論:從資訊不對稱到完美代理人
要理解代理式 AI 的經濟學意涵,必須從 Jensen 與 Meckling 1976 年的經典論文談起。[3] 委託代理理論(Principal-Agent Theory)描述了一種普遍的組織困境:當委託人(Principal)將任務委派給代理人(Agent)執行時,由於雙方存在資訊不對稱(Information Asymmetry)與利益分歧(Interest Divergence),代理人可能採取不符合委託人利益的行動。
這種「代理問題」(Agency Problem)在企業中無處不在:股東(委託人)聘請經理人(代理人)經營公司,但經理人可能追求個人權力擴張而非股東價值最大化;雇主聘請員工,但員工可能偷懶或謀取私利。為了緩解代理問題,委託人必須付出「代理成本」(Agency Costs),包括:[4]
- 監督成本(Monitoring Costs):設計監控機制、績效考核系統
- 保證成本(Bonding Costs):代理人為證明忠誠所付出的成本
- 剩餘損失(Residual Loss):即使有監督,仍無法避免的效率損失
AI 作為「完美代理人」的可能性?
代理式 AI 對這個框架構成根本性挑戰。傳統代理問題的根源在於人類代理人擁有私人資訊(Private Information)與私人利益(Private Interest)。但 AI 代理人的特性截然不同:[5]
- 無私人利益:AI 沒有加薪需求、沒有升遷野心、沒有怠工動機
- 可觀察性:AI 的每個決策步驟都可以被記錄、審計、重播
- 可對齊性:AI 的目標函數可以被明確設定與調整
這是否意味著 AI 能成為「完美代理人」——完全消除代理成本?
答案是複雜的。一方面,AI 確實大幅降低了傳統的監督成本。當 AI 執行任務時,其推理過程可以被完整追蹤(Chain-of-Thought),不存在人類代理人的「心理黑箱」。[6] 另一方面,新的代理問題正在浮現:對齊問題(Alignment Problem)——如何確保 AI 的目標函數真正反映委託人的意圖?[7]
數學模型:代理成本的重構
讓我們用一個簡化的數學模型來描述這個變化。假設委託人的目標是最大化淨效用:
max U = V(e) − M(m) − R(e, m)
其中:
- V(e):代理人付出努力 e 所創造的價值
- M(m):委託人付出的監督成本,取決於監督強度 m
- R(e, m):剩餘損失,是努力與監督的函數
在傳統人類代理人的情境下,∂R/∂m < 0(監督越多,剩餘損失越少),但 ∂²R/∂m² > 0(監督的邊際效益遞減)。委託人面臨取捨:監督太少,代理人可能偷懶;監督太多,成本高昂且可能引發反感。[8]
AI 代理人改變了這個函數的結構。由於 AI 的行為可被完整記錄與重播,監督的邊際成本趨近於零——∂M/∂m → 0。這意味著委託人可以實現「完美監督」而幾乎不付出額外成本。[9]
然而,新的成本項目出現了:對齊成本 A(a)——設計、訓練、調整 AI 目標函數所需的資源。修正後的效用函數變為:
max U = V(e) − A(a) − R'(e, a)
其中 a 代表對齊努力的程度。這揭示了一個關鍵洞見:代理式 AI 並未消滅代理問題,而是將其從「監督問題」轉化為「設計問題」。[10]
三、交易成本經濟學:企業邊界的重劃
如果說委託代理理論關注的是「組織內部」的效率問題,那麼 Ronald Coase 的交易成本經濟學則追問一個更根本的問題:企業為什麼存在?[11]
Coase 在 1937 年的經典論文中指出,市場交易涉及成本——搜尋資訊、談判契約、監督履約。當這些「交易成本」高於企業內部的「協調成本」時,將活動內部化是有效率的。企業的邊界,就是內部協調成本與外部交易成本相等的那條線。[12]
Oliver Williamson 進一步發展了這個框架,提出「資產專用性」(Asset Specificity)是決定交易成本的關鍵變數。當交易涉及高度專用的資產時,外部市場容易產生「套牢問題」(Hold-up Problem),內部化成為較佳選擇。[13]
AI 如何降低內部協調成本?
代理式 AI 對交易成本經濟學的衝擊在於:它同時降低了內部協調成本與外部交易成本,但降低的程度不對稱。
首先,AI 代理人大幅降低了內部協調的摩擦。傳統企業的協調成本來自多個層面:[14]
- 溝通成本:資訊在層級間傳遞的失真與延遲
- 協調成本:確保不同部門行動一致的管理負擔
- 激勵成本:設計薪酬、考核、晉升機制
AI 代理人可以即時存取共享知識庫、無需休息、不存在部門本位主義。更重要的是,它們可以被複製——同一個經過微調的 AI 模型可以同時處理多項任務,邊際成本趨近於零。[15]
其次,AI 也降低了外部交易成本。自然語言處理讓契約條款的解讀更加標準化;區塊鏈與智能合約讓履約更加自動化;API 經濟讓服務的組合更加模組化。[16]
但關鍵問題是:哪一邊降低得更多?
我的觀察是:AI 對內部協調成本的降低效果更為顯著。原因在於,外部交易仍然涉及「信任」與「法律」兩個 AI 難以完全替代的維度。即使 AI 可以自動執行合約條款,合約的談判、爭議的仲裁、關係的維護仍需要人類判斷。[17]
「自製 vs 外包」決策的重構
這對企業的「自製 vs 外包」決策有深遠影響。傳統上,企業傾向將核心能力內部化、將非核心活動外包。但代理式 AI 創造了第三種選擇:AI 內部化——用 AI 代理人取代原本需要外包的活動。[18]
舉例而言,一家新創公司原本需要外包:會計、法務、客服、行銷、IT 維運。在代理式 AI 時代,這些功能可以由 AI 代理人處理,而核心團隊專注於產品開發與策略決策。這解釋了為什麼 Y Combinator 總裁 Garry Tan 預言「一人獨角獸」(one-person unicorn)的可能性。[19]
Anthropic 執行長 Dario Amodei 更進一步預測:未來可能出現「一人十億美元公司」。[20] 這不是誇大——當 AI 代理人可以處理大部分的執行工作,企業的價值將高度集中在創辦人的願景、判斷與決策能力上。
四、任務框架:哪些工作會被「我說你做」取代?
Autor、Levy 與 Murnane 在 2003 年提出了影響深遠的「任務框架」(Task Framework),將工作分解為不同類型的任務:[21]
- 例行認知任務(Routine Cognitive):遵循明確規則的腦力工作,如資料輸入、簿記
- 例行體力任務(Routine Manual):遵循明確程序的體力工作,如組裝線作業
- 非例行認知任務(Non-routine Cognitive):需要判斷、創意、問題解決的腦力工作
- 非例行體力任務(Non-routine Manual):需要靈活應變的體力工作,如水電維修
- 互動任務(Interactive):需要人際溝通、說服、協商的工作
傳統自動化主要取代「例行任務」——無論認知或體力。這造成了所謂的「就業極化」(Job Polarization):中等技能的例行工作被淘汰,而高技能的非例行工作與低技能的服務業工作同時增長。[22]
對話式 AI 的影響範圍
對話式 AI(ChatGPT 模式)已經開始衝擊「非例行認知任務」。它可以撰寫文章、生成程式碼、翻譯文件、甚至進行初步的法律研究。但它的影響仍然是「輔助性」的——人類仍需複製輸出、驗證正確性、整合到工作流程中。[23]
經濟學家 Erik Brynjolfsson 等人的研究顯示,ChatGPT 對客服人員生產力的提升約為 14%,且對新手的幫助大於專家——這符合「技能壓縮」(Skill Compression)的假說。[24]
代理式 AI 的質變
代理式 AI(「我說你做」模式)則帶來質變。它不只是「幫助」人類完成任務,而是直接取代人類的執行角色。
讓我用一個具體場景說明。假設一位創業者需要完成以下任務:
- 撰寫一份商業計畫書
- 製作投影片簡報
- 發送給三位潛在投資人
- 追蹤回覆並安排會議
使用對話式 AI(ChatGPT),創業者需要:提問 → 獲得文字輸出 → 複製到 Word → 格式調整 → 提問簡報內容 → 手動製作投影片 → 手動發送郵件 → 手動追蹤回覆。
使用代理式 AI(OpenClaw 類型),創業者只需說:「幫我寫一份商業計畫書,製作簡報,發給這三位投資人,追蹤回覆並把會議排進我的行事曆。」AI 代理人會自動完成所有步驟。[25]
效率差異可能是 10 倍甚至 100 倍。但更重要的是角色的轉變:創業者從「執行者」變成「監督者」。
技能偏向性的逆轉
傳統的「技能偏向型技術變遷」(Skill-biased Technical Change, SBTC)假說認為,技術進步會增加對高技能勞工的需求、減少對低技能勞工的需求。[26] 但代理式 AI 可能逆轉這個趨勢。
當 AI 可以執行大部分的「專業執行」工作——撰寫法律文件、程式碼、財務報告——專業人士的差異化優勢將轉向「判斷」與「決策」,而非「執行」。這意味著:[27]
- 初級工程師、初級律師、初級分析師的需求可能大幅下降
- 資深專業人士的角色將轉向「AI 監督者」與「品質把關者」
- 「能夠善用 AI」將成為基本技能,不再是差異化優勢
METR 的研究甚至發現,資深開發者使用 AI 輔助後,完成任務的速度反而慢了 19%——因為他們花費更多時間審查 AI 的輸出。[28] 這暗示了一個反直覺的可能性:AI 的最大受益者可能不是專家,而是「能夠有效委派任務給 AI」的管理者。
五、博弈論視角:承諾機制與重複賽局
從博弈論的角度來看,代理式 AI 引入了新的策略結構。
承諾機制(Commitment Device)
在傳統的委託代理賽局中,代理人的承諾(「我會努力工作」)往往缺乏可信度,因為承諾後的實際行動不可觀察。這導致委託人必須設計激勵機制(如績效獎金)來誘導代理人遵守承諾。[29]
AI 代理人的獨特之處在於:它的「承諾」是寫在程式碼中的。當 AI 被設定為「優先完成用戶指定的任務」時,這不是一個可以被違背的承諾,而是一個硬性約束。這創造了一種前所未有的「技術性承諾機制」(Technological Commitment Device)。[30]
當然,這種承諾機制的可靠性取決於 AI 系統的設計與治理。如果 AI 的目標函數被惡意修改,或者存在未預期的行為漏洞,承諾的可信度就會受損。這是為什麼 AI 安全(AI Safety)研究如此重要。[31]
機制設計(Mechanism Design)
機制設計理論追問:如何設計遊戲規則,使得自利的參與者在追求個人目標時,自然達成社會最優結果?[32]
在人機協作的情境中,機制設計的問題變成:如何設計人類與 AI 的互動架構,使得雙方的能力互補、風險可控?
一個有效的人機協作機制應該具備以下特性:
- 誘因相容(Incentive Compatibility):AI 的目標函數與人類的利益一致
- 可監督性(Monitorability):人類可以審查 AI 的決策過程
- 可介入性(Interruptibility):人類可以隨時叫停或修正 AI 的行動
- 可歸責性(Accountability):當出錯時,責任歸屬明確
OpenClaw 等代理式 AI 的設計正在探索這些原則。例如,OpenClaw 採用「技能」(Skills)架構,每個技能模組可以被獨立審計;它也支持「人在迴路」(Human-in-the-loop)模式,在執行高風險操作前請求人類確認。[33]
重複賽局與信任演化
人類與 AI 的長期合作可以被建模為「無限重複賽局」(Infinitely Repeated Game)。Axelrod 的經典研究顯示,在重複賽局中,「以牙還牙」(Tit-for-Tat)策略——先合作,然後複製對方上一輪的行動——是最有效的策略之一。[34]
但 AI 代理人可以被設計為「無條件合作」——它不會因為人類的失信而報復。這創造了一種不對稱的賽局結構,人類可能傾向「剝削」永遠合作的 AI。[35]
這聽起來對人類有利,但可能導致長期的問題:如果人類習慣了「剝削」AI(例如,忽視 AI 的建議、不給予正確的反饋),AI 的學習效果會下降,最終損害人類自身的利益。最優的人機協作策略可能是「真誠合作」——給予 AI 準確的資訊與反饋,即使 AI 不會「報復」。
六、控制論與閉環系統
從 Norbert Wiener 的控制論(Cybernetics)視角來看,代理式 AI 代表了人機系統從「開環」到「閉環」的轉變。[36]
在對話式 AI 的模式中,系統是「開環」的:人類輸入問題 → AI 輸出答案 → 人類執行行動 → (環境改變)。AI 不直接感知行動的結果,無法自我修正。
在代理式 AI 的模式中,系統是「閉環」的:人類設定目標 → AI 執行行動 → 感知環境反饋 → 調整行動 → 直到目標達成。這是經典的「負反饋控制迴路」(Negative Feedback Control Loop)。[37]
人類作為「決策者」,AI 作為「執行器」
在控制論的框架下,人類的角色從「執行器」轉變為「決策者」或「目標設定者」。這類似於控制系統中「設定點」(Setpoint)與「控制器」(Controller)的區分:[38]
- 人類:設定目標(What to achieve),定義約束(What not to do)
- AI:規劃路徑(How to achieve),執行行動(Do it)
這種分工的最優設計取決於雙方的相對優勢。人類擅長:
- 定義模糊的、涉及價值判斷的目標
- 處理前所未見的、需要常識推理的情境
- 承擔法律與道德責任
AI 擅長:
- 處理大量資訊、快速搜索解空間
- 執行重複性、需要精確性的任務
- 7×24 不間斷運作、不受疲勞與情緒影響
最優的人機協作架構應該讓人類專注於人類的比較優勢,將其餘任務委派給 AI。[39]
七、組織重構的預言
如果上述分析正確,代理式 AI 將對組織架構產生深遠影響。
扁平化的極致
過去三十年,企業組織持續扁平化——減少管理層級、賦權前線員工。代理式 AI 將這個趨勢推向極致:當大部分的「執行」工作可以被 AI 處理,中間管理層的存在理由進一步弱化。[40]
McKinsey 的報告預估,AI Agent 每年可創造 2.6 至 4.4 兆美元的價值,其中很大一部分來自「流程自動化」——也就是取代原本需要人工處理的協調與執行工作。[41]
「一人公司」的崛起
當 AI 可以扮演員工的角色,組織的最小單位可能縮小到「一人 + AI 團隊」。這不是科幻想像——Cognition 的 Devin、OpenClaw 等專案已經展示了 AI 代理人獨立完成軟體開發任務的能力。[42]
這對勞動市場的影響是雙面的。一方面,它賦權個人——一個有願景的創業者可以用 AI 團隊實現過去需要數十人才能完成的專案。另一方面,它可能加劇不平等——掌握 AI 工具的人與無法善用 AI 的人之間的生產力差距將急劇擴大。[43]
新的稀缺性
當「執行」不再稀缺,什麼變得更有價值?我認為有三個方向:
- 判斷力:在資訊充足的情況下做出正確決策的能力
- 願景:定義值得追求的目標的能力
- 信任:人與人之間的關係資本,AI 無法複製
這呼應了 Kevin Kelly 的洞見:「未來最有價值的技能,是那些機器無法輕易複製的——創造力、同理心、倫理判斷。」[44]
八、結論:兩種時代的分界線
「我問你答」是資訊時代的產物——它解決的是「如何獲取資訊」的問題。「我說你做」是自動化時代的開端——它解決的是「如何將意圖轉化為行動」的問題。
這兩種模式沒有絕對的優劣。對話式 AI 適合探索、學習、靈感激發——當你不知道答案是什麼,與 AI 對話可以幫助你釐清思路。代理式 AI 適合執行、自動化、規模化——當你知道要做什麼,AI 代理人可以幫你快速完成。
但它們對人類的要求截然不同。對話式 AI 要求人類是「好的提問者」——知道如何問出正確的問題。代理式 AI 要求人類是「好的委託人」——知道如何定義目標、設定邊界、驗收結果。[45]
這意味著,教育的重心需要從「傳授執行技能」轉向「培養判斷與決策能力」。未來的專業人士不是「會做更多事的人」,而是「能夠有效指揮 AI 做事的人」。
這不是威脅,而是解放。當機器可以處理大部分的執行工作,人類將有更多時間專注於真正需要人類智慧的事情:定義什麼是值得追求的、什麼是正確的、什麼是有意義的。
從「我問你答」到「我說你做」,人機協作正在經歷典範轉移。這不是終點,而是起點。
References
- OpenAI. (2022). ChatGPT: Optimizing Language Models for Dialogue. openai.com
- Anthropic. (2025). Claude Computer Use: Agentic AI Capabilities. anthropic.com
- Jensen, M. C., & Meckling, W. H. (1976). Theory of the firm: Managerial behavior, agency costs and ownership structure. Journal of Financial Economics, 3(4), 305-360. doi.org
- Eisenhardt, K. M. (1989). Agency theory: An assessment and review. Academy of Management Review, 14(1), 57-74. doi.org
- Gabriel, I. (2020). Artificial Intelligence, Values, and Alignment. Minds and Machines, 30(3), 411-437. doi.org
- Wei, J., et al. (2022). Chain-of-Thought Prompting Elicits Reasoning in Large Language Models. NeurIPS 2022. arXiv
- Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.
- Holmström, B. (1979). Moral Hazard and Observability. The Bell Journal of Economics, 10(1), 74-91. doi.org
- Korinek, A. (2023). Scenario Planning for an A(G)I Future. NBER Working Paper. nber.org
- Hadfield-Menell, D., & Hadfield, G. K. (2019). Incomplete Contracting and AI Alignment. AIES '19. doi.org
- Coase, R. H. (1937). The Nature of the Firm. Economica, 4(16), 386-405. doi.org
- Coase, R. H. (1960). The Problem of Social Cost. The Journal of Law and Economics, 3, 1-44. doi.org
- Williamson, O. E. (1985). The Economic Institutions of Capitalism. Free Press.
- Hart, O., & Moore, J. (1990). Property Rights and the Nature of the Firm. Journal of Political Economy, 98(6), 1119-1158. doi.org
- Agrawal, A., Gans, J., & Goldfarb, A. (2018). Prediction Machines: The Simple Economics of Artificial Intelligence. Harvard Business Review Press.
- Catalini, C., & Gans, J. S. (2020). Some Simple Economics of the Blockchain. Communications of the ACM, 63(7), 80-90. doi.org
- Macaulay, S. (1963). Non-Contractual Relations in Business: A Preliminary Study. American Sociological Review, 28(1), 55-67. doi.org
- Brynjolfsson, E., & McAfee, A. (2014). The Second Machine Age. W. W. Norton & Company.
- Tan, G. (2024). The One-Person Unicorn Thesis. Y Combinator Blog. ycombinator.com
- Amodei, D. (2024). Machines of Loving Grace. Anthropic Blog. anthropic.com
- Autor, D. H., Levy, F., & Murnane, R. J. (2003). The Skill Content of Recent Technological Change. The Quarterly Journal of Economics, 118(4), 1279-1333. doi.org
- Autor, D. H., & Dorn, D. (2013). The Growth of Low-Skill Service Jobs and the Polarization of the US Labor Market. American Economic Review, 103(5), 1553-1597. doi.org
- Eloundou, T., Manning, S., Mishkin, P., & Rock, D. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models. arXiv preprint. arXiv
- Brynjolfsson, E., Li, D., & Raymond, L. R. (2023). Generative AI at Work. NBER Working Paper. nber.org
- Cognition Labs. (2024). Introducing Devin, the first AI software engineer. cognition-labs.com
- Acemoglu, D., & Autor, D. (2011). Skills, Tasks and Technologies: Implications for Employment and Earnings. Handbook of Labor Economics, 4, 1043-1171. doi.org
- Noy, S., & Zhang, W. (2023). Experimental evidence on the productivity effects of generative artificial intelligence. Science, 381(6654), 187-192. doi.org
- METR. (2025). Measuring AI R&D Automation. Model Evaluation & Threat Research. metr.org
- Myerson, R. B. (1991). Game Theory: Analysis of Conflict. Harvard University Press.
- Schelling, T. C. (1960). The Strategy of Conflict. Harvard University Press.
- Hendrycks, D., et al. (2023). An Overview of Catastrophic AI Risks. arXiv preprint. arXiv
- Hurwicz, L. (1960). Optimality and informational efficiency in resource allocation processes. Mathematical Methods in the Social Sciences, 27-46. Stanford University Press.
- OpenClaw Community. (2025). OpenClaw Skills Architecture Documentation. GitHub
- Axelrod, R. (1984). The Evolution of Cooperation. Basic Books.
- Dafoe, A., et al. (2020). Open Problems in Cooperative AI. arXiv preprint. arXiv
- Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.
- Ashby, W. R. (1956). An Introduction to Cybernetics. Chapman & Hall.
- Beer, S. (1972). Brain of the Firm. Allen Lane.
- Malone, T. W. (2018). Superminds: The Surprising Power of People and Computers Thinking Together. Little, Brown and Company.
- Hamel, G., & Zanini, M. (2020). Humanocracy: Creating Organizations as Amazing as the People Inside Them. Harvard Business Review Press.
- McKinsey & Company. (2024). The economic potential of generative AI: The next productivity frontier. mckinsey.com
- Sequoia Capital. (2024). AI Agents: A Primer. sequoiacap.com
- Acemoglu, D., & Restrepo, P. (2022). Tasks, Automation, and the Rise in US Wage Inequality. Econometrica, 90(5), 1973-2016. doi.org
- Kelly, K. (2016). The Inevitable: Understanding the 12 Technological Forces That Will Shape Our Future. Viking.
- Christiano, P., et al. (2017). Deep Reinforcement Learning from Human Feedback. NeurIPS 2017. arXiv