杨立昆离开 Meta 后不止创一份业:押注与大模型不同的路线,加入硅谷初创董事会

艾奇百科 百科资讯 3

离开 Meta 这座围城后,Yann LeCun 似乎悟了“不要把鸡蛋装在同一个篮子里”。

一边,他亲手打造了自己的初创公司 AMI,试图在世界模型这条赛道上大展拳脚;同时,他的目光又投向了硅谷的另一角。

就在最近,LeCun 正式宣布加入一家名为 Logical Intelligence 的初创公司,担任技术研究委员会的创始主席。

挺有意思的。因为 Logical Intelligence 选择了一条与当前主流大模型(LLM)截然不同的技术路线。

该公司主推的是一种能量-推理模型,“更擅长学习、推理和自我纠正”。

在数独游戏测试上,Logical Intelligence 推出的模型 Kona 不到 1s 就正确完成了数字填写,

而 GPT 5.2、Claude Opus 4.5、Claude Sonnet 4.5 都跑了 100s 了,还没个结果……

After 10 minutes……

Logical intelligence 是做啥的公司?

首先,咱先来搞搞清楚 Logical Intelligence 到底是做什么的。

简单来说,这家今年 1 月刚对外亮相的 AI 公司正在研发一种基于能量的推理模型(Energy-Based Reasoning Model,EBM)。

听起来可能有点抽象…… 我们拆解开来细说一下。

这种模型通过根据约束条件进行评分,来验证和优化解决方案。

你可以把它想象成一个在复杂迷宫中寻找出口的智能体,它不是靠大模型那样预测下一个 token,而是通过感知周围环境的“能量高低”来判断方向。

在 EBM 的世界里,符合逻辑、满足约束条件的解,其“能量”最低,也就是最一致、最稳定的状态。

系统会一直不断优化,直到找到那个能量最低的结果。

也就是说,EBM 体系从一开始就假定问题本身由严格约束构成,推理过程服务于满足约束这一目标。

Logical Intelligence 发布了三大核心技术论点。

第一,大模型作为推理模型的根本性受限。

它依赖离散 token,给 AI 推理的扩展带来了严重障碍。

第二,能量-推理模型(EBMs)克服了使用基于大模型推理模型固有的主要难题。

第三,扩展 AI 推理需要使用 EBM 进行推理,用大模型进行协调 —— 尤其是在与自然语言教学之间的翻译时。

如果你长期关注 LeCun 的学术动态,就会发现这玩意儿其实完美契合了他长久以来的技术信仰。

早在 20 年前,LeCun 就多次讨论过能量模型在智能系统中的潜力。

只是受限于算力与训练方法,这一路线长期停留在理论与小规模实验阶段。

近几年,LeCun 在采访中反复提到大模型的成功在某种程度上让整个领域形成路径依赖。就在最近的一次采访中,他还对着媒体说,每个人都已经“被 LLMs 洗脑了”。

所以,LeCun 加入这家公司是一个非常顺理成章,两方一拍即合的事情。

Logical Intelligence 的创始人兼 CEO Eve Bodnia 表示:

对我们来说,Yan LeCun 是能量-推理模型和相关各种架构的唯一专家。

当我们开始着手这个 EBM 时,他是我能与之交谈的唯一人选。

Eve Bodnia 还说,AI 有不同的形式,不必非得是基于文本的 AI。

“人们总说我们处于 AI 泡沫之中,但我们不在这个范围内。因为大家只是处在大模型泡沫中。”

他还说,通往 AGI 的道路需要不同的 AI 来各司其职:

  • LLMs 用自然语言与人类交互

  • EBMs 承担推理任务

  • 世界模型帮助机器人在 3D 空间中采取行动

已推出首款模型

Logical Intelligence 声称自己是首个成功构建出工作型 EBM 的公司。

他们已经推出了一款叫 Kona 的能量-推理模型,参数量低于 200M。

那么,这款模型的表现如何?

Logical Intelligence 甩出了一个具体的应用场景,数独。

在单个 Nvidia H100 GPU 上运行,Kona 解决数独问题的速度,比 Claude Opus 4.5、GPT 5.2、Gemini 3 Pro 等全球顶尖的大模型都要快得多,准确率也遥遥领先。

这是 Kona 玩儿数独的速度和成绩:

第二快的是 DeepSeek-V3,不过出了一些小小的错误:

其它 Gemini 3 Pro、Claude Opus 4.5 玩儿数独的速度,都 100s 开外去了…… 最后结果还是错的(捂脸)。

BTW,在此测试中,大模型们被禁止使用能“暴力解题“的编程能力。

之所以选数独来测试,是因为数独是一个典型的强约束、零容错的逻辑问题。

填错一个数字,整个盘面就废了。

这个对比就是为了突出在强约束、解空间有限的问题上,能量模型的搜索效率。

所以 Kona 的目标战场不仅仅是填数字游戏。

Logical Intelligence 的目标是让 Kona 去解决现实世界中最为棘手的问题,比如优化复杂的能源网络分配,或者实现精密制造过程的自动化。

Eve Bodnia 强调的,这些任务“压根都跟语言没关系”,而且对幻觉的容忍度非常低。

根据最新公开资料,EBM 在训练数据方面还有独特的优势。

EBM 的训练数据可以是任何东西。

“我们不是试图为所有事物创建一个适用于所有情况的通用大脑。我们为每个独立的业务创建一个较小的模型。每个客户的数据都会有所不同。”

这就使得训练与传统大模型有很大不同。团队用来训练 Kona 的是部分数据,称为稀疏数据,而 Kona 能够从稀疏数据中提取完整数据。

One More Thing

目前,Kona 还是一个闭源模型。

不过 CEO 说了,最终会考虑将某些内容开源。

希望在将其公之于世之前,能够充分理解它。

这是迈向 AGI 的一大步。

你需要思考它的安全性如何,可能性有哪些,以及界限在哪里。我只是想做一个负责任的父母。

参考链接:

https://archive.ph/H91Zl#selection-2531.22-2531.53

如果你也想测下数独速度:

https://sudoku.logicalintelligence.com/

本文来自微信公众号:量子位(ID:QbitAI),作者:衡宇,原标题《LeCun 离职后不止创一份业!押注与大模型不同的路线,加入硅谷初创董事会》