AI导读:

2025智源大会在北京召开,业内人士围绕AI、具身智能等话题展开探讨。AI大模型正加速从数字世界迈向物理世界,多模态模型有望成为规模化落地拐点,数据集共享被视为开源协作的关键。

  上证报中国证券网讯(记者窦世平)6月6日至7日,2025智源大会在北京中关村召开,业内人士围绕AI、具身智能等发展现状及未来方向展开深入探讨。上海证券报记者采访获悉,AI大模型正从数字世界迈向物理世界交互,2025年有望成为多模态模型规模化落地的拐点,数据集共享被视为开源协作的关键。

  AI加速向物理世界进军

  宇树科技CEO王兴兴在具身智能会客厅中表示:“公司的终极目标是让机器人能在家庭或工厂中工作。”这反映了智能作用于物理世界的趋势。多位产业人士认为,2025年是具身智能行业落地的关键时期,相关应用正稳步从实验室推向物理世界。

  智源研究院院长王仲远指出,大模型正由大语言模型向原生多模态大模型和世界模型演进,加速从数字空间融入物理世界。

  大会设有AI科研成果互动体验展台,参会者可亲身体验从具身智能到脑科学、数字心脏等领域的最新应用。在具身智能展区,基于RoboOS 2.0及RoboBrain 2.0的机器人能完成汉堡制作、倒饮料等动作,还能玩抓娃娃游戏和收纳家居物品。

  智谱CEO张鹏表示:“基于推理能力的增强,大模型在智能体能力上取得显著进步,能规划并执行任务,根据环境反馈调整流程。”这一提升使AI有机会从数字世界迈入物理世界。

  多模态模型成热议焦点

  多模态成为大会上的热门话题。业内人士预测,去年语言模型取得突破性进展,今年有望成为多模态模型规模化落地的转折点。

  VLA视觉语言行动模型是当前具身智能研究的热点。银河通用创始人王鹤认为,自动驾驶验证了端到端方案的扩展性,但VLA仅是起点,实现人类级别的具身智能需不断融合新模态。

  生数科技CEO驼怡航指出,行业已呈现三大信号:技术迭代迅速,音视频生成模型在效果、速度和成本上快速提升;行业需求旺盛;视频相关产业落地步伐加快。

  王仲远表示,智源研究院正探索原生多模态技术路径和架构,目前虽有进展,但尚未达到多模态ChatGPT的水平。

  星动纪元创始人兼CEO陈建宇分析,具身智能需从虚拟图像和文本世界延展至物理世界,要求模型具备更深层次的物理理解,搭载在能与物理世界交互的机器人上,并能协同工作,这是具身智能领域的一大挑战。

  数据集共享推动开源创新

  与会嘉宾普遍认为,开源是AI发展的核心,数据集共享是关键基础,全球合作至关重要。鼓励开发者从提交代码等小事做起,共同推动AI创新。

  智源研究院副院长、总工程师林咏华强调,数据集对AI至关重要,特别是大模型和具身智能,如培训机器人了解世界,需新数据集输入。

  哈佛商学院数据显示,全球开源软件经济价值达9万亿美元,可帮助开发者节约70%成本,开源治理是平衡竞争与协同的关键。

  Linux基金会执行董事Jim Zemlin表示:“2025年是开源AI元年,开源正成为全球AI创新的核心驱动力。”他强调,开源是技术普惠的唯一路径,通过全球协作确保AI创新惠及全人类。如中国企业Deepseek发布开源大模型,引发技术生态变革,证明开源能打破垄断、加速迭代。

  林咏华表示:“我们相信全球合作对AI开源至关重要,它有助于降低成本,获取高质量数据训练智能体,促进AI创新。”

(文章来源:上海证券报·中国证券网)