觀點
黃偉豪:破解AI Becker困局:避免大學「畢業生」頓成「失業生」
【明報文章】在人工智能(AI)下,人類社會正面臨一場深刻的勞動市場變革。傳統的職業培訓模式正被AI顛覆,這不僅威脅到就業機會,更挑戰人力資本的積累機制。經濟學家Luis Garicano今年7月在博客「Silicon Continent」上提出的「AI Becker問題」(AI Becker problem;註),正是對這一現象的剖析。他借鑑諾貝爾經濟學獎得主Gary Becker的人力資本理論,揭示AI如何放大企業在通用技能培訓上的「挖角困境」(poaching problem),導致入門級職位減少、新人難以取得實戰經驗,從而形成惡性循環。這不僅是關乎企業成本效益,更是社會不平等加劇的隱患。
這場變革中,大學作為人力資本的首要培養者,肩負重任。它們不能僅停留於傳授知識的傳統角色,而須轉型為AI時代的「元認知工廠」。對香港而言,這一問題尤為緊迫。作為國際金融中心,香港的專業服務業(例如銀行、法律、會計)高度依賴入門級人力培訓;若不妥善應對,香港青年將面臨更大鴻溝,甚至面對畢業即失業的困境。
AI徹底顛覆人力資本投資模式
Gary Becker於1964年出版的經典著作《人力資本》(Human Capital),開創了人力資本理論,將教育與培訓視為投資行為。Becker指出,企業願意投資員工的「特定技能」(firm-specific skills),因為這些技能不易被挖走;但對「通用技能」(general skills,例如數據分析或策略思維),企業卻會猶豫,因為員工學成之後易被競爭對手用高薪誘走。
這就是著名的「Becker poaching problem」。傳統解決之道是「聯合產品模型」(joint-product model):入門級員工一邊學習,一邊產生收入(如律師助理的計費小時),企業藉此收回培訓成本。這一模式在知識經濟裏運作良好,支撐了專業服務業的階梯式晉升。
惟AI的出現,徹底顛覆這一平衡。Garicano於「The AI Becker problem」一文指出,生成式AI(如ChatGPT或Gemini)擅長處理例行任務(routine tasks),例如生成報告、清洗數據或初步診斷,取代了新人原本的「計費小時」機會。以金融業為例,投資銀行高盛已用AI平台取代初級分析師的Excel工作,新人無法透過實戰累積「元認知能力」(meta-cognitive skills),如經濟直覺或危機判斷。結果,企業減少培訓投資,寧願僱用已具備經驗的人才或直接依賴AI。這導致「AI Becker問題」:高階AI工程師薪酬暴漲,但中低階職位蒸發,新人陷入「無門而入」困境。
這種情况在全球各大專業服務行業正迅速擴散。諮詢公司McKinsey的內部AI平台「Lilli」,每月處理逾50萬個查詢,節省三成以上的顧問研究時間;Allen & Overy等國際律師事務所,則已採用AI工具自動審核合約、做盡職調查,極大壓縮了原本由實習律師負責的工作;美國矽谷不少初創公司,甚至停止聘請低於中階職級(如L5)以下的工程師,因為初階任務已被AI替代。根據風險投資公司SignalFire對職場人才平台LinkedIn數據的分析,新畢業生的聘用率自疫情後下降了25%;紐約聯邦儲備銀行數據則顯示,大學生失業率自2023年起上升了30%。
大學角色 前所未有地重要
這些現象共同指向一個事實——AI不僅取代了工作,更摧毁了工作所提供的學習階梯。
在這樣的背景下,大學的角色變得前所未有重要。過去,大學被視為知識傳授者,課堂的目的在於令學生學會某種技能或理論;但於AI時代,僅僅傳授知識已遠遠不足——大學必須蛻變為「超越AI能力」的培養基地,訓練學生具備判斷、批判、創新與倫理的元認知能力,協助他們跨越「AI監督門檻」(supervision threshold),成為能夠使用與監督AI的專業人才。
筆者在香港中文大學教授的畢業論文課程,正是基於這樣的理念設計:與其禁止學生使用AI,不如徹底打破傳統和禁忌,老師們選擇在課程上100%開放AI使用,讓學生在導師指導下,學會如何正確使用AI工具執行英語潤色、搜尋資料、分析案例等任務。我也要求學生反思和解釋AI的輸出:AI答案是否正確?是否存在偏差?是否有缺乏上下文理解的問題?於這個過程裏,學生不再是AI的被動使用者,而是成為積極的判斷者與質疑者。
AI並未削弱教師的角色,反而讓教師成為不可或缺的引導者與對話者。正如筆者在近日的聯合國教科文組織國際研討會「AI Ethics in Global Education」裏分享,學生需要的是一個安全空間,能夠自由地與教師討論AI的使用方式和倫理界線。這樣的空間,正是高等教育應該提供的。
發展真正的AI素養
在同一場研討會中,來自瑞典烏默奧大學的碩士學生Tuva Falk,也分享了她作為學生的觀察。她指出,許多學生對使用AI仍存疑懼,擔心違反規定或被視為作弊,導致他們不是完全避免使用AI,就是過度依賴AI產出的內容。這樣的兩極化現象,正反映當前高等教育在AI應用上的制度真空與指引缺失。
Tuva強調:「我們需要學會如何與AI一起思考,而不止是學會是否能用AI。」她呼籲大學應提供開放對話的空間,讓學生能夠安心討論AI的使用、了解其潛力與限制,從而發展出真正的AI素養。這種素養,不僅是技術層面的操作能力,更是一種理解AI邏輯、辨識AI偏誤、做出人類判斷的能力。
深層持久的社會重構
我們必須清楚意識到:AI不是一場短暫的科技浪潮,而是一場深層次和持久的社會重構。它改變的不止是工具本身,更是學習方式、工作內容與人才養成。一旦我們放任AI取代初級工作,而不作出制度回應,整個社會將面臨人才斷層、階級固化與創新力流失的巨大風險。
「AI Becker問題」如同一面鏡子,映照出人力資本於AI時代的脆弱與潛力。若企業退縮,大學須挺身而出,培養超越AI的「人類資本」。破解「AI Becker問題」,不能只靠企業、政府或學生單方面努力,而是需要大學為自己的課程內容和教學模式重新定位。正如Becker所說,教育是一種投資。在AI時代,這項投資的報酬,不再只是經濟效益,更是社會的可持續發展與人類的共同未來。
註:Garicano, L. (2025, July 23). The AI Becker problem: Who will train the next generation? Silicon Continent.
作者是美國史丹福大學行為科學高等研究中心院士
(本網發表的時事文章若提出批評,旨在指出相關制度、政策或措施存在錯誤或缺點,目的是促使矯正或消除這些錯誤或缺點,循合法途徑予以改善,絕無意圖煽動他人對政府或其他社群產生憎恨、不滿或敵意)
[黃偉豪]
