|

丹尼斯·哈萨比斯专访-看看人类顶级大脑对大模型 AGI 的思考

最近,Google DeepMind 的掌舵人、诺贝尔奖得主**丹尼斯·哈萨比斯(Demis Hassabis)**在 2026 年初的达沃斯论坛(WEF)以及 CNBC 的《The Tech Download》首期节目中高频亮相。

作为谷歌 AI 的“总设计师”,他的发言信息量巨大,甚至直接向 OpenAI 的“暴力美学”开火。我为大家整理了这份“哈萨比斯 2026 战略路线图”,带你一窥 AGI 前夜的真实格局。


核心观点:当 LLM 撞上“南墙”

哈萨比斯这次最震撼的观点是:纯粹的大语言模型(LLM)可能无法通往真正的 AGI。

1. 从“预测下个词”到“世界模型”

他指出目前的模型(如 ChatGPT)本质是模式识别,存在**“锯齿状智能” (Jagged Intelligences)**——在某些任务上惊人,在简单的逻辑变体上却瞬间崩盘。

  • 痛点: LLM 缺乏对因果律的理解,不懂物理世界的规则。
  • 解药: 世界模型 (World Models)。哈萨比斯强调,AI 必须像人类一样能在大脑中进行“思想实验”,预测 A 导致 B 的物理逻辑。谷歌的 Genie 3(交互式世界模型)和 Veo(视频生成)正是这一思路的产物。

2. AGI 临界点:2026-2030

哈萨比斯维持了他一贯的预测:AGI(通用人工智能)有 50% 的概率在未来 5-10 年内实现。

  • 定义: AGI 不仅仅是回答问题,而是能自主提出科学假设、发明新药、发现新物理定律。
  • 硬核指标: 真正的 AGI 需要实现“闭环自演进”,即 AI 能自主设计、改进并部署下一代模型。

3. 谷歌的身份转变:从“追赶者”到“引擎室”

他直言不讳地将 DeepMind 描述为谷歌的“引擎室”。2025 年是谷歌反超的关键年,Gemini 系列(尤其是 Flash 版本)的成功证明了谷歌在推理、长文本和多模态上的深厚积淀。


🌍 地缘政治与行业竞争

在达沃斯现场,哈萨比斯还分享了一些非常“敏感”的洞察:

维度哈萨比斯的独家洞察
中美竞赛中国团队极其出色,目前仅落后美国约 6-12 个月。但中国目前擅长“跟随”,尚未在 Transformer 或 AlphaGo 这种级别上实现“从 0 到 1”的原始创新。
就业冲击AI 还没导致大规模失业,目前的岗位波动更多是疫情后过度招聘的修正。但初级岗位和实习生今年将感受到明显的压力。
普惠 AI建议像印度这样的国家没必要非得烧钱做底层大模型(已经有 6 家顶级供应商了),而应专注于应用层创新,把 AI 结合到当地的支柱产业。

类似文章

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注