丹尼斯·哈萨比斯专访-看看人类顶级大脑对大模型 AGI 的思考
最近,Google DeepMind 的掌舵人、诺贝尔奖得主**丹尼斯·哈萨比斯(Demis Hassabis)**在 2026 年初的达沃斯论坛(WEF)以及 CNBC 的《The Tech Download》首期节目中高频亮相。
作为谷歌 AI 的“总设计师”,他的发言信息量巨大,甚至直接向 OpenAI 的“暴力美学”开火。我为大家整理了这份“哈萨比斯 2026 战略路线图”,带你一窥 AGI 前夜的真实格局。
核心观点:当 LLM 撞上“南墙”
哈萨比斯这次最震撼的观点是:纯粹的大语言模型(LLM)可能无法通往真正的 AGI。
1. 从“预测下个词”到“世界模型”
他指出目前的模型(如 ChatGPT)本质是模式识别,存在**“锯齿状智能” (Jagged Intelligences)**——在某些任务上惊人,在简单的逻辑变体上却瞬间崩盘。
- 痛点: LLM 缺乏对因果律的理解,不懂物理世界的规则。
- 解药: 世界模型 (World Models)。哈萨比斯强调,AI 必须像人类一样能在大脑中进行“思想实验”,预测 A 导致 B 的物理逻辑。谷歌的 Genie 3(交互式世界模型)和 Veo(视频生成)正是这一思路的产物。
2. AGI 临界点:2026-2030
哈萨比斯维持了他一贯的预测:AGI(通用人工智能)有 50% 的概率在未来 5-10 年内实现。
- 定义: AGI 不仅仅是回答问题,而是能自主提出科学假设、发明新药、发现新物理定律。
- 硬核指标: 真正的 AGI 需要实现“闭环自演进”,即 AI 能自主设计、改进并部署下一代模型。
3. 谷歌的身份转变:从“追赶者”到“引擎室”
他直言不讳地将 DeepMind 描述为谷歌的“引擎室”。2025 年是谷歌反超的关键年,Gemini 系列(尤其是 Flash 版本)的成功证明了谷歌在推理、长文本和多模态上的深厚积淀。
🌍 地缘政治与行业竞争
在达沃斯现场,哈萨比斯还分享了一些非常“敏感”的洞察:
| 维度 | 哈萨比斯的独家洞察 |
| 中美竞赛 | 中国团队极其出色,目前仅落后美国约 6-12 个月。但中国目前擅长“跟随”,尚未在 Transformer 或 AlphaGo 这种级别上实现“从 0 到 1”的原始创新。 |
| 就业冲击 | AI 还没导致大规模失业,目前的岗位波动更多是疫情后过度招聘的修正。但初级岗位和实习生今年将感受到明显的压力。 |
| 普惠 AI | 建议像印度这样的国家没必要非得烧钱做底层大模型(已经有 6 家顶级供应商了),而应专注于应用层创新,把 AI 结合到当地的支柱产业。 |
