所有文章
共 178 篇文章,第 13 / 18 頁
Mistral Small 4 架構解析:128 專家 MoE 設計如何用 6B 活躍參數擊敗百億級模型
Mistral AI 發布 Mistral Small 4,採用 128 專家混合架構(MoE),總參數 119B 但每次推理僅啟動 6B 參數。該模型在邏輯推理與程式碼生成基準測試中超越 GPT-OSS 120B,同時輸出長度減少 20%,推理延遲降低 40%。以 Apache 2.0 授權開源。
Mistral Voxtral TTS 技術分析:90 毫秒首音延遲與五秒語音複製的架構突破
Mistral AI 發布開源文字轉語音模型 Voxtral TTS,以極小的模型尺寸實現了 90 毫秒的首音延遲(TTFA),僅需不到五秒的語音樣本即可複製自定義聲音。模型支援九種語言,可在智慧手錶等邊緣裝置上運行,以 CC BY NC 4.0 授權開源。
Samsung 八億裝置 Gemini 部署計劃:端側 AI 大規模落地的技術挑戰與架構分析
Samsung 計劃在 2026 年底前將搭載 Google Gemini AI 功能的裝置數量從 4 億增加至 8 億。本文深度分析端側 AI 大規模部署的技術架構、硬體需求、以及對 AI 晶片和模型壓縮技術的連鎖影響。
AI 代碼生成基準測試深度分析:SWE-bench 的局限性與下一代評測框架的設計方向
隨著 AI 代碼生成能力的快速進步,現有基準測試的局限性日益凸顯。本文深度分析 SWE-bench、HumanEval 等主流代碼評測框架的方法論問題,並探討下一代評測框架應如何設計才能真實衡量 AI 的軟件工程能力。
AI 醫療影像 2026 年度進展:從輔助診斷到病理分割的技術突破與臨床驗證挑戰
2026年,AI 醫療影像系統在多個臨床領域實現重要突破,包括乳腺癌篩查召回率提升、視網膜病變早期檢測及病理切片全自動分析。本文回顧技術進展,並深度分析從研究到臨床部署的系統性障礙。
Anthropic Constitutional AI v2 技術解析:從規則列表到原則推導的 AI 對齊範式轉變
Anthropic 發布 Constitutional AI v2 研究報告,核心創新在於讓模型從少量高層次原則中推導出具體行為規範,而非依賴大量硬編碼規則。本文深度分析其技術實現、與 RLHF 的對比,及對 AI 對齊研究的理論意涵。
歐盟 AI 法案強制執行首年技術合規分析:高風險 AI 系統的技術文件要求與評估框架
歐盟 AI 法案(EU AI Act)已進入強制執行階段,高風險 AI 系統的技術文件要求和合規評估框架已正式生效。本文深度分析法案對模型卡(Model Card)、數據管理文件及可解釋性報告的技術要求,以及對 AI 研發實踐的深遠影響。
Google Gemini 2.0 Flash 多模態架構解析:原生影像理解如何重構視覺-語言對齊
Gemini 2.0 Flash 採用原生多模態架構,拋棄了傳統 CLIP 式視覺編碼器,改以統一的 token 空間處理影像與文本。本文深度分析其技術創新、視覺問答基準表現及在醫療影像和科學圖表理解領域的突破。
Meta Llama 4 架構深度解析:Mixture-of-Experts 設計如何實現 10 倍推理效率提升
Meta 發布的 Llama 4 系列採用稀疏 Mixture-of-Experts(MoE)架構,在保持與 Llama 3 相當的輸出質量的同時,推理計算量降低達 80%。本文深度分析其 MoE 路由機制、專家容量設計及開源生態的技術意涵。
NVIDIA Blackwell Ultra GB300 深度技術分析:NVLink 第五代如何重構大規模 AI 訓練的通信瓶頸
NVIDIA 最新 Blackwell Ultra GB300 架構的核心創新在於第五代 NVLink 和 NVLink Switch 的設計,將 GPU 間通信頻寬提升至 1.8TB/s。本文分析其對 Transformer 模型訓練中的梯度同步、流水線並行和張量並行的技術影響。