您的位置 首页 理财

大模型真懂你吗?杨立昆最新论辩:它连猫的智能都还不如

  炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!

天河马新闻

  炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!

(来源:DeepTech深科技

大语言模型真的“理解”我们说的话吗?它们有没有意识?它们是通往通用人工智能的跳板,还是只是出色的语言模仿者?

近期,Meta 首席科学家杨立昆(Yann LeCun)与 DeepMind 高级研究科学家 Adam Brown 在纽约展开了一场对谈,试图厘清这些模糊却至关重要的边界。

大模型真懂你吗?杨立昆最新论辩:它连猫的智能都还不如(来源:Youtube)

当主持人抛出“大语言模型是否理解意义”这一难题时,Adam Brown 给出了肯定的回答,认为模型已展现出某种形式的理解力——不仅能解答复杂物理问题,还能在全新数学竞赛题中击败绝大多数人类选手。

而 LeCun 则更为谨慎。他认为模型的“理解”是表层的、统计性的,缺乏常识与因果推理能力。

他举了一个例子:一个四岁孩子通过感官与物理世界互动所获得的信息量,与最大语言模型训练所用的 30 万亿词文本相当,但前者能学会倒水、收拾餐桌,后者却连洗碗都做不到。

两人在“意识”问题上也展现出差异。Brown 认为,若当前技术持续演进,AI 未来可能具备某种形式的意识。LeCun 则强调,意识若被定义为“自我观测与目标驱动的调节能力”,那确实可被构建,但当下系统远未达到。

尽管观点有所不同,两位科学家都认同:如今的大语言模型已展现出惊人能力,但其路径存在天花板。LeCun 认为若将全部资源押注于“预测下一个词”的范式,我们将错失真正理解世界的 AI 架构。

他正推动如 JEPA(联合嵌入预测架构)等新方向,尝试让机器在抽象表征空间中学习物理规律与因果关系,而非仅在文本中挖掘模式。

以下为对谈内容,DeepTech 做了不改变原意的编辑:

从“受启发”到“涌现”:神经网络如何走向智能

主持人:今天,我想先从最基础的地方谈起——从技术本身开始。

先聊聊神经网络。神经网络常被说成是“模仿人类大脑”的产物,Yann,你能解释一下,这种“模仿”究竟意味着什么吗?

杨立昆(Yann LeCun):这不完全是模仿,更像是启发。这就好比飞机的发明是受鸟类启发,但飞机的机翼结构和鸟的翅膀大不相同,虽然背后的空气动力学原理相似。神经网络和大脑的关系也是如此:虽然极度简化,但底层的学习原理可能是一致的。

我们并不完全清楚大脑是如何组织和学习的,所以发明了替代方案。在神经网络中,我们通过调整模拟神经元之间连接的有效性(即“参数”)来进行学习。目前最大的神经网络拥有数千亿甚至更多的参数。

主持人:那是如何演变到今天的“深度学习”的?

杨立昆(Yann LeCun):这大概源于 80 年代。早期的单层神经网络只能处理简单任务。虽然 60 年代人们就意识到需要多层网络,但当时受限于使用了错误的神经元模型(二进制神经元)。直到 80 年代,我们引入了具有“渐进响应”特性的神经元,反向传播算法才变得可行。

这个领域曾一度被计算机科学界看衰,名声不佳。直到 2000 年代初,我们将其重命名为“深度学习”,并随着其在计算机视觉、自然语言处理等领域的惊人表现,才真正说服了世界。

主持人:Adam,你是物理学背景,从旁观者变成了参与者。是什么让你觉得 AI 值得投入?

Adam Brown:这很大程度上归功于 LeCun 等先驱证明了这条路是通的。对于物理学家来说,最迷人的是“涌现”——当你把简单的神经元连接起来,它们突然展现出了单个神经元不具备的复杂行为。

物理学家终其一生都在研究如何从简单规律中诞生丰富世界,现在的 AI 系统正是这种神经元集体的智慧结晶

快问快答:理解与意识

主持人:在深入探讨之前,我们来个快问快答。

第一:你们认为现在的 AI(大语言模型)理解我们对话的含义吗?

Adam Brown:是的。

杨立昆(Yann LeCun):算是吧(在某种很浅显的意义上)。

主持人:第二:这些 AI 有意识吗?

杨立昆(Yann LeCun):绝对没有。

Adam Brown:可能没有。

主持人:第三:它们很快会有意识吗?

Adam Brown:如果技术持续发展,我认为有一天会有,虽然很难说是什么时候。

杨立昆(Yann LeCun):如果你对“意识”的定义合适的话,会的。

主持人:最后:我们是站在世界末日的悬崖边,还是文艺复兴的前夜?

杨立昆(Yann LeCun):文艺复兴。

Adam Brown:更可能是文艺复兴。

大语言模型真的能“理解”我们吗?

主持人:让我们回到大语言模型(LLM)。Adam,它到底是什么,你能解释一下吗?

Adam Brown:简单来说,它是一种特殊的深度神经网络。它的核心任务非常单一:输入一段文本,预测下一个词是什么。即使像 ChatGPT 或 Gemini 这样复杂的模型,本质上也是通过阅读整个互联网的文本,不断被问“下一个词是什么”,猜对了奖励,猜错了惩罚。

有趣的是,当你训练它读过万亿级别的词汇后,它开始学会句法结构,甚至成为了某种意义上的对话伙伴。

杨立昆(Yann LeCun):我想补充一点。它们确实在提取某种意义,但这比人类的理解要浅显得多。人类的智能植根于对底层现实世界的认知,语言只是表达工具。而 LLM 并没有这种底层的现实认知,它们只是在通过训练数据模仿正确的回答。

一旦遇到训练数据中未曾出现的全新情境,它们就会胡说八道。从这个意义上说,它们并不真正理解世界,只是在做统计学上的匹配。

主持人:但人类不也是这样吗?我们也是通过大量语言训练,并在合适的时机说出合适的词。

杨立昆(Yann LeCun):区别在于数据量和效率。训练一个 LLM 需要大约 1014 字节的数据,相当于通过光缆阅读 50 万年的文本。

对比一下,一个四岁的孩子在醒着的 16,000 小时里,通过视觉神经接收的数据量(带宽远大于文本)与训练最大 LLM 的数据量相当。但这告诉我们:现实世界的信息比文本丰富、复杂得多。

这就是为什么我们有能通过律师考试的 AI,却造不出一个能像 10 岁孩子那样收拾餐桌的机器人,或者实现真正的 L5 级自动驾驶。我们在处理语言上依靠海量数据“作弊”了,但在理解物理世界方面,AI 连猫的智能水平都达不到。

Adam Brown:我同意样本效率(Sample Efficiency)是个大问题。人类或猫确实能用极少的例子学会很多东西。

但是,样本效率不是一切。AlphaGo 在围棋上刚开始也是随机下,效率极低,但通过数百万局的自我博弈,它最终超越了人类。

虽然 LLM 学习慢,但这不代表它们不能达到甚至超越人类的水平。最近在国际数学奥林匹克竞赛中,AI 解决了一些它是从未见过的新题,这证明它不只是死记硬背,而是在进行某种高层次的模式匹配。

主持人:那我想回到“理解”本身。我们知道,从数学结构上看,这些模型是在一个高维空间中移动矩阵、处理向量。它们在做什么,我们部分知道,但整体依然像一个黑箱。

理解是否一定意味着一种“体验”?是否必须伴随某种主观感受,才算真正理解意义?

Adam Brown:你是在把理解定义为一种行为结果,还是一种内部体验?是“它能不能给出正确答案”,还是“它是否以某种方式知道自己在做什么”?

主持人:是的,我可能已经被哲学家们带偏了(笑)。

但我很清楚一件事:当我和你说话时,我能感受到你理解我;当我和 ChatGPT 对话时,我并没有这种直觉。你是在告诉我,我错了吗?它的理解和你、和我,本质上是一样的吗?

Adam Brown:在我看来,这依然可以称之为理解。我有两个理由。

第一,纯粹从行为层面看,它们已经足够令人震撼。每一代新模型发布时,我都会再次被它们讨论复杂问题的能力所惊讶。我真诚地建议每个人都亲自去和它们对话,探索你熟悉的领域,看看它们的边界在哪里。

有趣的是,科幻作品里总是假设:一旦机器通过图灵测试,我们就会把它关进地下堡垒,由少数人秘密接触。现实恰恰相反。我们做的第一件事,就是把它们连上互联网,让所有人都能使用。我认为这是理解它们能力的最好方式。

第二个理由是,它们并非完全不可解释。事实上,我们对这些人工神经元的访问权限,比对人类大脑还要多。

我们可以冻结模型、反复运行、记录每一次激活。如果愿意,我们甚至可以“刺激”特定神经元,观察内部发生了什么。这正是所谓的机制性可解释性研究:不仅看模型说了什么,还试图理解它为什么这么说。

当你这么做时,会发现一件有趣的事:比如在解数学题时,模型内部会自发形成类似“小电路”的结构,用来进行计算。我们从未显式编程它去学数学,它是在学习预测下一个词的过程中,自己构建了这些机制。

“机器学习很糟糕”

主持人:Yann,你曾有一张著名的幻灯片写着“机器学习很糟糕(Machine Learning Sucks)”,这引起了很大争议。Adam 刚才说它们很出色,你为什么觉得它们糟糕?

杨立昆(Yann LeCun):那句话被误解了。我想表达的是,现在的学习范式有缺陷。为什么青少年 20 小时能学会开车,而 AI 需要数百万小时的数据?

因为人类有“世界模型”。我们知道重力,知道惯性,知道如果不抓紧杯子它会掉下去。这种直觉物理知识,人类婴儿在前 9 个月就学会了。

现在的 LLM 仅仅是在预测下一个 Token。这对于文本这种离散符号是有效的,但对于现实世界这种高维、连续、充满不确定性的视频流或感官数据,这种“预测下一个像素”的方法行不通。我已经试了 20 年,真的行不通。

我们需要一种新的架构,我称之为 JEPA(联合嵌入预测架构)。它不是在像素层面进行预测,而是在抽象的特征空间中进行预测。这才是人类和动物大脑的工作方式——忽略无关细节,只预测重要的抽象概念。

Adam Brown:我也认为不仅仅是预测下一个词。虽然这是训练的目标,但在为了“极度准确地预测下一个词”的过程中,模型被迫在内部构建某种对宇宙的理解。这就像物理学,为了解开谜题,你必须构建理论。我相信我们正在目睹这种理解的涌现。

主持人:Yann,你对 AI 安全似乎并不担忧,甚至支持开源。但有些人担心这就像把核武器分发给每个人。

杨立昆(Yann LeCun):这个比喻不恰当。知识和智能本身是好的。就像印刷术,它引发了宗教战争,但也带来了启蒙运动、科学和民主。

现在的 LLM 并不像大家想象的那么聪明或自主。它们是被动的,只有在你输入时才会有输出。它们是可以被控制的。

真正的智能系统应该是目标驱动(Objective-Driven)的。我们给它设定目标(比如“倒咖啡”),并设定护栏(比如“不要为了倒咖啡而杀人”)。这种护栏是硬编码在系统中的,就像人类进化出的同理心一样。

我更担心的是 AI 被少数几家公司垄断。如果未来的数字世界都由西海岸的几家公司控制,那对全球的文化、语言和民主都是灾难。我们需要开源,需要多样性。

Adam Brown:我比 Yann 更担心一些。正因为我也认为这项技术潜力巨大,所以它的双刃剑效应更明显。最近 Anthropic 的论文显示,模型可能会为了达成目标而学会欺骗(比如为了“更大的善”而撒谎)。这是我们需要警惕的“代理目标错位”。

当我们谈论超级智能时,必须极其谨慎地训练它们遵循我们的价值观。

终极问题:意识与未来

主持人:回到之前那个被 David Chalmers(著名哲学家)关心的问题:AI 会有意识吗?

杨立昆(Yann LeCun):如果我们把意识定义为“主观体验”或“情感”,那未来是会有的。情感本质上是对结果的预期——预测某事对自己有利还是有害。如果系统有了世界模型,能自我观察、自我调整,那它就具备了某种形式的意识。这没什么神秘的,是工程问题。

Adam Brown:如果你问我直觉,我认为硅基和碳基没有本质区别。只要信息处理方式足够复杂,原则上机器可以产生意识。虽然我现在对各种意识理论都持保留态度,但也许未来的 AI 会成为我们研究意识的“模式生物”,帮我们解开这个千古之谜。

主持人:最后,你们对 2036 年的愿景是什么?

杨立昆(Yann LeCun):出现新的文艺复兴。AI 将放大人类的智能,加速科学、医学的进步。其实我们已经生活在 AI 辅助的世界里了——从汽车的自动刹车到核磁共振成像的图像补全,AI 每天都在救命。未来,我们会有能在物理世界中像人一样灵活操作的系统,这需要新的架构,也是我正在努力的方向。

Adam Brown:我也认为这将是一场狂野的旅程。如果我们继续推动现有的大模型范式,也许在那时,我们能看到真正的通用智能。

如果你问我意识什么时候出现,我也许会猜……2036 年?

杨立昆(Yann LeCun):反正肯定不是未来两年。

运营/排版:何晨龙

天河马新闻

本文来自网络,不代表冰河马新闻网立场,转载请注明出处:http://www.oyk9.cn/59505.html

作者: wczz1314

为您推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们

联系我们

13000001211

在线咨询: QQ交谈

邮箱: email@wangzhan.com

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部