xAI 人才大出走:半數聯合創始人離職,馬斯克的 AI 帝國根基動搖
xAI 的 12 位聯合創始人中,已有 6 位離開公司。最新離職的是研究與安全主管 Jimmy Ba 以及推理團隊負責人 Tony Wu,兩人均於 2 月 10 日正式離開。這場持續的人才流失已觸發內部重組,xAI 分拆為四大事業部。在 SpaceX-xAI 合併與 IPO 計劃的關鍵時刻,半數聯合創始人的出走令人不禁追問:馬斯克的 AI 帝國究竟出了什麼問題?
xAI 的 12 位聯合創始人中,已有 6 位離開公司。最新離職的是研究與安全主管 Jimmy Ba 以及推理團隊負責人 Tony Wu,兩人均於 2 月 10 日正式離開。這場持續的人才流失已觸發內部重組,xAI 分拆為四大事業部。在 SpaceX-xAI 合併與 IPO 計劃的關鍵時刻,半數聯合創始人的出走令人不禁追問:馬斯克的 AI 帝國究竟出了什麼問題?
xAI 成立於 2023 年 7 月,由 Elon Musk 召集了一批來自 Google DeepMind、OpenAI、多倫多大學等頂尖機構的 AI 研究者組成創始團隊。12 位聯合創始人的陣容在當時被視為 AI 領域最強大的人才集結之一。然而不到三年,這支夢之隊已折損過半。
最新離職的 Jimmy Ba 是多倫多大學的副教授,師從深度學習先驅 Geoffrey Hinton,在 AI 研究與安全領域擁有深厚學術背景。他在 xAI 負責研究和安全團隊,其離開意味著 xAI 在 AI 安全這一關鍵領域失去了核心領導者。Tony Wu 則負責推理團隊——這是當前 AI 技術競爭中最為關鍵的方向之一,他的離開直接影響到 Grok 模型推理能力的發展。
此外,多名非創始人級別的資深工程師也跟隨離職的聯合創始人一同離開,進一步加劇了人才流失的規模。其中,離職工程師 Roland Gavrilescu 已成立了名為 Nuraline 的 AI 初創公司,顯示出 xAI 的人才外流正在孵化新的競爭者。
面對聯合創始人接連離去的局面,Musk 於週二召開了全員大會。據報導,他將離職潮歸因於「適配度」(fit)問題,並試圖將此事定性為正常的組織重組,而非人才危機。
一家公司失去一兩位聯合創始人可以被視為正常的人員流動;但失去半數聯合創始人,則是一個需要認真審視的組織性問題。Musk 的「適配度」解釋顯然不足以回應外界的擔憂。
與此同時,xAI 宣佈了一項重大的組織重組,將公司分拆為四大事業部:
這一重組的時機和結構引發了多重解讀。樂觀者認為,四大事業部的架構展示了 xAI 從單一聊天機器人向多元化 AI 平台演進的雄心。但悲觀者指出,在核心人才大量流失之際進行分拆,可能進一步分散本已不足的技術領導力。一家初創公司的首要挑戰通常是聚焦,而非分散。
值得一提的是,「Macrohard」這個事業部名稱明顯是對 Microsoft(微軟)的戲謔——將「Micro」(微)改為「Macro」(宏),將「soft」(軟)改為「hard」(硬)。這種命名風格非常「馬斯克式」,帶有強烈的個人印記和挑釁意味。但對於一家試圖建立企業客戶信任的 AI 軟體部門而言,這種戲謔式的命名是否恰當,值得商榷。
Jimmy Ba 離職後發表的公開言論尤為引人關注。他警告稱,AI 系統可能在 12 個月內發展出「遞歸自我改進迴路」(recursive self-improvement loops)——即 AI 系統能夠自主地改進自身的能力,形成持續加速的進化循環。
這一警告在 AI 安全社群中引起了強烈反響。遞歸自我改進長期以來被視為通往超級智能的關鍵門檻之一,也是 AI 安全研究者最為擔憂的風險情景。如果這一預測屬實,那麼 xAI 在失去安全主管的時刻,恰恰是 AI 安全問題即將變得最為緊迫的時刻。
Ba 的離開也引發了一個更深層的問題:xAI 的 AI 安全文化是否存在系統性缺陷?在 Musk 過往的企業管理中,安全相關的崗位往往不受重視——從 Tesla 的自動駕駛安全爭議,到 Twitter/X 的內容安全團隊被大規模裁撤,都反映出類似的模式。
xAI 的人才出走偏偏發生在最關鍵的時間節點上。據報導,SpaceX 與 xAI 的合併計劃正在推進中,IPO 預計於 2026 年 6 月左右啟動。對於一家即將上市的公司而言,半數聯合創始人的離職無疑是投資者信心的重大考驗。
IPO 路演中,承銷商需要向潛在投資者講述一個令人信服的故事。而「12 位聯合創始人走了 6 位」這個事實,無論如何包裝,都不是一個容易圓的故事。投資者會問:剩下的核心團隊是否穩定?離職者帶走了多少關鍵技術知識?公司的技術路線圖是否因此受到影響?
雪上加霜的是,《金融時報》近期報導了 xAI 內部對 Grok 模型性能的緊張情緒。據稱,Grok 在多項基準測試中落後於 OpenAI 的 GPT-4o 和 Anthropic 的 Claude,尤其在推理能力和代碼生成等關鍵指標上差距明顯。這種性能差距被認為是部分聯合創始人離職的直接原因之一——當頂尖研究者感到自己的工作無法追趕競爭對手時,留下來的動力自然會降低。
Musk 過去在 Tesla 和 SpaceX 上的成功,很大程度上建立在他能夠吸引和留住頂尖工程人才的能力上。但 AI 研究領域的人才市場有其獨特性:頂尖 AI 研究者不僅追求薪酬和資源,更看重研究自由度、技術路線的合理性,以及對公司使命的認同。Musk 的管理風格——高強度、高壓力、頻繁調整方向——在 AI 研究團隊中似乎並不完全適用。
從更宏觀的視角看,xAI 的人才外流正在成為整個 AI 生態系統的養分。Roland Gavrilescu 創立的 Nuraline 是一個縮影——具備頂級 AI 實驗室經驗的研究者和工程師帶著技術見解和產業認知投入創業,往往能在特定垂直領域快速建立優勢。
這種「人才溢出效應」在 AI 產業中並非新鮮事。OpenAI 的人才外流催生了 Anthropic、Cohere 等重要公司。Google Brain 和 DeepMind 的前員工創立了 Character.AI、Inflection AI 等明星初創。AI 巨頭的人才流動,在客觀上豐富了整個產業的多樣性。
xAI 的人才危機折射出全球 AI 人才市場的一個核心現實:頂尖 AI 研究者擁有極高的議價能力和流動性。他們不會因為公司的品牌或創始人的名氣而安於不理想的工作環境。這對於正在積極吸引 AI 人才的香港,提供了重要啟示。
香港特區政府近年來推出了多項人才引進政策,包括高端人才通行證計劃和科技人才入境計劃。但 xAI 的案例表明,吸引人才只是第一步,留住人才才是關鍵。頂尖 AI 研究者需要的不僅是簽證便利和稅收優惠,更需要有意義的研究課題、充足的算力資源、開放的學術交流環境,以及對其研究方向的尊重。
對於香港的大學 AI 實驗室、研究機構和科技公司而言,xAI 的教訓同樣適用。AI 研究團隊的管理需要與傳統企業管理有本質區別——過度的層級結構、僵化的績效考核、對研究自由度的限制,都可能導致核心人才流失。
香港在 AI 人才方面有獨特優勢:背靠大灣區的產業生態、擁有多所世界百強大學、國際化程度高、法治環境成熟。但這些優勢需要轉化為具體的人才吸引力——例如,設立由 AI 研究者主導的自主研究基金、建設世界級的 AI 算力基礎設施、打造連接學術界與產業界的開放平台等。
Jimmy Ba 離職後發出的 AI 安全警告,以及 xAI 在安全領域領導力的真空,也為香港敲響了警鐘。隨著 AI 能力的快速進化,AI 安全已從學術議題升級為戰略議題。香港如果希望在全球 AI 治理中發揮作用,就需要培養和引進 AI 安全方面的專業人才,而非僅僅關注 AI 應用和商業化。