🧠 图灵奖得主杨立昆:大语言模型真的不具备这四个核心能力
当前人工智能系统的最大局限性,就藏在四个对真正智能行为至关重要的关键要素里,而大语言模型在这四个方面表现得并不好,甚至可以说根本不具备。
杨立昆直接点名:
1. 理解物理世界
2. 拥有持久记忆
3. 具备推理能力
4. 复杂规划能力
大语言模型再会生成文本、再会聊天、再会写代码,也改变不了它本质上的这些短板。
先说理解物理世界。
模型靠海量文本训练,能描述“杯子倒了会碎”,但它没真正“懂”重力、惯性、形状约束这些物理规律。
它没滚过球、没摔过东西、没摸过物体,所以永远停留在统计相关性,而不是因果和物理直觉。
再看持久记忆。
大模型的“记忆”就是上下文窗口,窗口一关,什么都不记得。
人类能记住童年往事、昨天教训、十年前经验,模型每次对话重启就失忆。
持久记忆需要连续自我更新机制,这块大模型还差得远。
第三,推理能力。
它能模仿一步步推导,但本质是模式匹配,不是真正逻辑思考。
遇到没见过的新问题、新组合,很容易崩盘。
真正的推理需要因果链、反事实思考、抽象跳跃,模型的“推理”只是概率填充,看起来像,内核不是深度理解。
最后,复杂规划能力。
规划不是列清单,而是动态调整、在不确定性中权衡、预测多步后果。
让模型规划一次旅行,它能给大致行程;加点突发变量(航班取消、天气变、预算紧),它就卡壳。
人类规划靠经验、预判、灵活调整,模型靠训练数据的影子,遇到真正开放的世界就跟不上。
这些短板不是小问题,而是核心差距。
大语言模型强大在语言处理、模式生成、知识检索,但离“智能”还差四个支柱。
杨立昆这番话提醒我们:别把大语言模型当成AGI的前身,它更像超级工具,而不是有灵魂的智能体。
未来AI要突破,可能得跳出纯语言模型框架,真正融合物理模拟、记忆系统、因果推理和规划引擎。
你觉得大语言模型的这些局限,会在短期内补上吗?
还是需要全新范式?
#蛮子讲AI #杨立昆 #大模型局限
点击图片查看原图