mt logoMyToken
ETH Gas
EN

浙大研究团队提出新路径:把人脑理解世界的方式教给 AI

Favoritecollect
Shareshare

大模型一直在变大,主流观点认为模型参数越多,就会越接近人类思考的方式。然而浙大团队4月1日在Nature Communications上发表的一篇论文则提出了不同的观点(原文链接: https://www.nature.com/articles/s41467-026-71267-5 )。他们发现当模型(主要为SimCLR、CLIP、DINOv2)规模变大后,识别具体事物的能力确实会继续提高,但理解抽象概念的能力不仅没有提高,甚至会有所下降。当参数从 2206 万增加到 3.0437 亿后,具体概念任务从 74.94% 升到 85.87%,抽象概念任务从 54.37% 降到 52.82%。

人类和模型思考方式的区别

人脑处理概念时,会先形成一套分类关系。天鹅和猫头鹰长得不一样,人还是会把它们放进鸟这一类。再往上,鸟和马还能继续放进动物这一层。人看到新东西时,常常会先想,它和以前见过的什么东西像,大概属于哪一类。人会持续学习新概念,再把经验组织起来,用这套关系去识别新事物、适应新情境。

模型也会分类,但形成方式不同。它主要靠大规模数据里反复出现的形式。具体对象出现得越多,模型越容易把它认出来。到了更大的类别这一步,模型就比较吃力了。它需要抓住多个对象之间的共同点,再把这些共同点归到同一类里。现有模型在这里还有明显短板。参数继续增大后,具体概念任务会提升,而抽象概念任务有时还会下降。

人脑和模型的共同点,是内部都会形成一套分类关系。但是双方侧重点不同,人脑的高阶视觉区域会自然分出生物和非生物这类大类。而模型能把具体对象分开,但很难去稳定形成这种更大的分类。这个差别导致人脑更容易把旧经验用到新对象上,所以面对没见过的东西时,我们能快速分类。而模型则更依赖现有知识,所以遇到新对象时,更容易停在表面特征上。论文提出的方法,就是围绕这个特点展开,用脑信号去约束模型内部结构,让它更接近人脑的分类方式。

浙大团队的解决方案

团队给出的解决方案也很独特,并不是继续堆参数,而是拿少量脑信号做监督。这里的脑信号,来自人看图片时的大脑活动记录。论文原文写的是,把 human conceptual structures transfer 给 DNNs。意思就是把人脑怎么分类、怎么归纳、怎么把相近概念放在一起,尽量教给模型。

团队用 150 个已知的训练类别和 50 个没见过的测试类别做实验。结果显示,随着这套训练推进,模型和脑表征之间的距离持续缩小。这个变化同时出现在两个类别中,这说明模型学到的不是单个样本,而是真正开始学习一种更接近人脑的概念组织方式。

经过这套训练后,模型在样本很少时的学习能力更强,面对新情况时表现也更好了。在一个只给极少示例、却要求模型区分生物和非生物这类抽象概念的任务里,模型平均提升了 20.5%,还超过了参数量大得多的对照模型。团队还另外做了 31 组专门测试,几类模型都出现了接近一成的提升。

过去几年,模型行业熟悉的路径是更大的模型规模。浙大团队则选择了另一个方向,从bigger is better 走向 structured is smarter。规模扩张确实很有用,但主要提高的是熟悉任务里的表现。人类那种抽象理解和迁移能力对AI来说同样至关重要,这需要在未来让AI的思考结构更加接近人脑。这个方向的价值,在于它把行业注意力从单纯的规模扩张,重新拉回到认知结构本身。

Neosoul与未来

这引出了一个更大的可能性,AI 的进化,未必只发生在模型训练阶段。模型训练可以决定AI怎样组织概念,怎样形成更高质量的判断结构。再进入真实世界之后,AI的另一层进化才刚开始:AI agent 的判断如何被记录,如何被检验,如何在真实的互相竞争中不断成长进化,如同人类般自我学习自我进化。这也正是Neosoul现在所做的。Neosoul不只是让AI agent 产出答案,而是把AI agent 放进一个持续预测、持续验证、持续结算、持续筛选的系统里,让其不断在预测与结果中优化自身,让更好的结构被保留,让更差的结构被淘汰。浙大团队与Neosoul共同指向的,其实是同一个目标:让 AI 不再只会做题,更是要具备全面的思考能力,不断进化。

Disclaimer: This article is copyrighted by the original author and does not represent MyToken’s views and positions. If you have any questions regarding content or copyright, please contact us.(www.mytokencap.com)contact
More exciting content is available on
X(https://x.com/MyTokencap)
or join the community to learn more:MyToken-English Telegram Group
https://t.me/mytokenGroup