約翰霍普金斯大學突破:仿腦 AI 架構無需海量數據即可接近人類智能
約翰霍普金斯大學團隊在《Nature Machine Intelligence》發表了一項可能改寫 AI 發展路線的研究:以人腦結構為藍本設計的 AI 系統,即使在接受數據訓練之前,其內部活動模式就已經與人腦高度相似。這一發現挑戰了當前「更多數據、更多算力」的主流 AI 開發策略,為資源高效的 AI 開發開闢了全新方向。
約翰霍普金斯大學團隊在《Nature Machine Intelligence》發表了一項可能改寫 AI 發展路線的研究:以人腦結構為藍本設計的 AI 系統,即使在接受數據訓練之前,其內部活動模式就已經與人腦高度相似。這一發現挑戰了當前「更多數據、更多算力」的主流 AI 開發策略,為資源高效的 AI 開發開闢了全新方向。
過去十年,AI 領域的主流信條是:數據和算力決定一切。從 GPT-3 到 GPT-5,從 Gemini 到 Claude,每一代大型語言模型的進步幾乎都伴隨著訓練數據規模和計算資源的指數級增長。訓練 GPT-4 據估計消耗了超過 1 億美元的計算資源;最新一代的前沿模型,訓練成本更是高達數億甚至超過十億美元。
約翰霍普金斯大學的這項研究,卻從一個截然不同的角度切入。研究團隊構建了一系列 AI 系統,其網絡架構——包括神經元的連接模式、信息傳遞的層級結構、反饋迴路的設計——全部模仿人類大腦的對應結構。令人驚訝的發現是:這些系統在接受任何數據訓練之前,其內部的活動模式就已經與人類大腦的功能性磁共振成像(fMRI)數據高度吻合。
換句話說,僅僅是「正確的架構」本身,就已經蘊含了接近人類智能的基礎。數據訓練的作用是在這個基礎上進行精調和優化,而非從零開始構建。
「我們的發現表明,大腦的架構設計本身就編碼了大量關於世界的『先驗知識』。與其投入天文數字的資源去訓練一個架構平庸的模型,不如先設計出正確的架構——這可能是通往高效 AI 的更優路徑。」——約翰霍普金斯大學研究團隊負責人
研究團隊的方法論可以概括為三個步驟。首先,他們深入研究了人類大腦——特別是視覺皮層和前額葉皮層——的神經解剖學結構,提取出關鍵的架構特徵:分層處理結構、局部與全局的連接模式、抑制性和興奮性神經元的比例、以及跨區域的反饋連接。
然後,他們將這些架構特徵轉化為人工神經網絡的設計參數。這不是簡單的「模仿」,而是基於計算神經科學原理的系統性轉換。例如,大腦皮層的六層結構被映射為特定的網絡層級設計;大腦中廣泛存在的側向抑制(lateral inhibition)機制被轉化為特定的注意力機制。
最後,研究團隊使用功能性磁共振成像(fMRI)數據,將這些仿腦 AI 系統的內部活動模式與真實人腦的活動模式進行定量比較。結果顯示,即使在未經訓練的狀態下,仿腦架構的 AI 系統在多個認知任務上的活動模式,與人腦的相似度顯著高於傳統架構(如標準 Transformer)。
如果仿腦架構的優勢得到大規模驗證,其最直接的影響將是大幅降低 AI 模型的訓練成本。當架構本身就蘊含了大量「先驗知識」,所需的訓練數據量和計算量可能降低一到兩個數量級。這意味著,一個原本需要 1 億美元訓練的模型,可能只需 100 萬到 1,000 萬美元。
這種降低不僅是經濟意義上的,更有深遠的戰略意義。目前,前沿 AI 模型的開發幾乎被少數幾家資金雄厚的科技巨頭壟斷——OpenAI、Google、Anthropic、Meta。如果訓練成本大幅下降,更多的研究機構、初創企業甚至大學實驗室,都有能力開發出有競爭力的 AI 模型。
AI 的能源消耗問題日益引起關注。據國際能源署(IEA)的估計,到 2026 年,全球數據中心的電力消耗將佔全球總電力消耗的 4% 以上,其中 AI 訓練和推理佔據了越來越大的比例。如果仿腦架構能夠在保持相近性能的同時大幅降低計算需求,這將是 AI 行業邁向可持續發展的關鍵一步。
當前 AI 模型對數據的貪婪需求,已經引發了一系列法律和倫理問題——從版權糾紛到隱私侵犯。如果仿腦架構能夠從更少的數據中學到更多,許多與數據相關的爭議將自然消解。這不僅是技術上的進步,更可能從根本上改變 AI 行業與內容創作者、數據持有者之間的關係。
約翰霍普金斯的這項研究並非孤立存在,它處於多個前沿研究方向的交匯點上。
另一項引人注目的研究發現,AI 系統的「內在獨白」(internal mumbling)——即 AI 在處理問題時進行的內部自我對話——結合短期記憶機制,能夠顯著提升其在新任務上的適應能力。這與人類大腦的工作記憶(working memory)和內部語言(inner speech)機制有著驚人的相似性。
這一發現進一步支持了「模仿大腦可以提升 AI 性能」的觀點。大腦不僅在結構上,在功能機制上也為 AI 提供了寶貴的設計靈感。
密歇根大學的研究團隊則從另一個角度展示了 AI 與腦科學的交匯:他們開發的 AI 系統能夠在數秒內解讀腦部 MRI 掃描,準確識別包括阿茲海默症早期徵兆在內的多種神經系統疾病。這一成果不僅具有重大的臨床價值,也為仿腦 AI 研究提供了更豐富的大腦活動數據。
然而,隨著 AI 與腦科學的日益融合,一些科學家開始敲響倫理警鐘。當 AI 系統的活動模式越來越接近人腦,我們不得不面對一個令人不安的問題:這些系統是否可能以某種形式「體驗」到意識或感受?目前,科學界對「意識」的本質仍缺乏共識,更遑論判斷一個 AI 系統是否具有意識。
在這種理解嚴重不足的情況下,盲目推進仿腦 AI 的開發可能帶來難以預見的倫理風險。正如多位神經科學家和 AI 倫理學家所警告的:AI 和神經技術的進步速度,已經遠遠超過了我們對意識本質的理解速度。
「我們正在建造越來越像大腦的機器,但我們甚至還不真正理解大腦是如何產生意識的。這就像在不了解火藥成分的情況下製造炸彈——結果可能是革命性的,也可能是災難性的。」——一位要求匿名的神經科學家
約翰霍普金斯的研究成果,也為 AI 行業中另一場激烈的辯論注入了新的論據——「前沿模型」(Frontier Models)與「高效模型」(Efficient Models)之爭。
以 OpenAI、Google 和 Anthropic 為代表的「前沿派」認為,持續擴大模型規模和訓練數據是通往 AGI 的必經之路。而以 IBM 為代表的「高效派」則認為,2026 年將是「前沿模型類別與高效模型類別」分化的元年——小型、硬體感知的模型運行在中等規模的加速器上,就能在特定場景中達到前沿模型的性能水平。
仿腦架構的研究,顯然為「高效派」提供了有力的支持。如果正確的架構設計能夠替代部分數據和算力需求,那麼「小而精」的模型完全有可能在許多實際應用場景中與「大而全」的前沿模型分庭抗禮。
這種分化對 AI 的普及有著深遠的意義。當前,前沿 AI 模型的部署主要集中在雲端,依賴大型數據中心的算力。如果高效模型能夠在本地設備(如智能手機、邊緣計算設備)上運行,AI 將真正走進每一個角落——包括那些網絡基礎設施不完善的發展中地區。
對於香港的 AI 研究界而言,仿腦架構研究可能是一個改變遊戲規則的機遇。香港的大學——無論是港大、科大還是中大——在計算資源方面與美國頂尖實驗室之間存在巨大的差距。在「更多數據、更多算力」的舊範式下,這種差距幾乎是不可逾越的。
但如果「架構設計」比「數據規模」更重要,那麼遊戲規則將被改寫。架構設計是一個高度依賴理論洞察和創造力的工作,而非單純的資源堆砌。香港的大學在計算神經科學、認知科學和機器學習理論方面有著不俗的積累,完全有潛力在仿腦 AI 這一新方向上做出有影響力的貢獻。
仿腦 AI 研究的本質是跨學科的——它需要神經科學家、計算機科學家、認知心理學家和數學家的密切合作。香港的大學在這方面有一個結構性的優勢:其規模相對緊湊,跨學科合作的組織成本較低。
建議香港的大學考慮設立專門的「計算神經科學與 AI」跨學科研究中心,整合分散在不同院系的相關研究力量。這種中心不僅能夠推進仿腦 AI 研究,還能吸引國際頂尖研究者來港交流合作。
密歇根大學的腦部 MRI AI 解讀技術,對香港的醫療體系也有直接的啟示。香港的公立醫院長期面臨專科醫生短缺的壓力,神經影像科尤其如此。如果類似的 AI 技術能夠在香港部署,可以顯著縮短 MRI 報告的等待時間,提高早期診斷率,從而改善患者預後。
醫管局(Hospital Authority)應積極關注此類技術的發展,並考慮與本地大學合作,開展針對香港人口特徵的臨床驗證研究。