中国科学院自动化研究所与脑科学与智能技术卓越创新中心的联合团队在《Nature Machine Intelligence》发表题为《Human-like object concept representations emerge naturally in multimodal large language models》的研究。
团队通过行为实验与神经影像分析相结合,分析了 470 万次行为判断数据,首次构建了 AI 模型的 " 概念地图 ",证实多模态大语言模型(MLLMs)能够自发形成与人类高度相似的物体概念表征系统。
研究逻辑与科学问题:从 " 机器识别 " 到 " 机器理解 "
传统 AI 研究聚焦于物体识别准确率,却鲜少探讨模型是否真正 " 理解 " 物体含义。
论文通讯作者何晖光研究员指出:" 当前 AI 能区分猫狗图片,但这种‘识别’与人类‘理解’猫狗的本质区别仍有待揭示。"
类脑智能:寻找机器与人类间的认知结构差异,开发与人类认知维度对齐的 AI 系统 ( NeuroAI )
神经科学:基于大模型的类人 " 心智维度 " 探索生物脑实现概念组合与泛化、灵活决策与推理的神经机制(AI for Neuroscience)
脑机接口:利用大模型核心维度表征解码大脑神经信号,构建认知增强型脑机接口系统 ( AI for BCI )
团队还指出了下一步重点:
拓展至新一代多模态大模型,形成认知基准测试平台,为评估 AI 的语义理解提供客观标准。正如论文通讯作者何晖光研究员所说:" 这项工作不仅是在测试 AI 的能力,更是在寻找人与机器之间共通的认知语言,探测 AI 模型的 " 概念地图 " 只是第一步,未来需要建立涵盖推理、情感等维度的完整认知评估体系。"