中国发展高层论坛聚焦人工智能产业化
AI导读:
中国发展高层论坛2026年年会聚焦人工智能产业化议题,与会嘉宾探讨了人工智能在各个领域的应用及其带来的安全挑战和治理路径。论坛上提出通过技术架构和制度设计确保智能体行为可验证、可干预、可追溯。
在近日召开的中国发展高层论坛2026年年会期间,与会嘉宾围绕人工智能产业化落地、风险挑战与治理路径进行了深入探讨。业内人士指出,人工智能的安全治理要通过技术架构确保智能体的行为可验证、可干预、可追溯,同时要通过制度设计明确各方责任。
随着人工智能从基础大模型向行业大模型纵深拓展,与实体经济的结合度越来越高。天津市副市长翟立新在会上介绍,在AI+制造方面,联想天津创新产业园创建了激励模型+深度学习的混合架构,排产时效从过去的两个小时压缩到10分钟;在AI+医疗方面,天津医科大学肿瘤医院上线了“AI辅助审核系统”,检验报告审核时间平均缩短30分钟。
强脑科技创始人韩璧丞表示,脑机接口与人工智能的深度结合,正重新定义医疗与技术的边界。强脑科技的仿生灵巧手已落地多家人形机器人企业,成为具身智能的核心部件,帮助机器人在工业制造、生活服务等场景完成精细操控。
“只有推动人工智能与各行各业深度融合,才能将技术势能转化为发展势能。”国家数据局局长刘烈宏说,中国作为全世界唯一拥有全部工业门类的国家,数据资源丰富、产业体系完备、市场空间巨大,实施“人工智能+”行动,就能让人工智能技术真正扎进产业土壤,深度赋能千行百业。
数据显示,预计到“十五五”末,中国人工智能相关产业规模将突破10万亿元,迈向更广阔的增长空间。
伴随人工智能产业化进程加速,其带来的安全挑战以及如何构建与之匹配的安全治理体系备受关注。
蚂蚁集团首席执行官韩歆毅表示,实现AI时代的共同繁荣,产业界要携手应对四重挑战:底层的算力和能源消耗,再上一层是模型和数据的安全问题,应用层则是如何确保AI能真正为人类带来福祉,最后就是人的发展问题。“面对这四大挑战,产业界应当有所作为,探索系统性的解决方案。”
“安全必须贯穿于AI发展的始终,包括模型幻觉、隐私安全、伦理底线和人机关系等挑战。”韩歆毅说。在应对这些风险过程中,企业是AI技术研发、产品化和运营的直接主体,必须遵循“谁开发、谁负责”的原则;安全与伦理原则必须“内置”,不能“后补”;不能因为市场竞争激烈而放松安全责任。
上海人工智能实验室主任、首席科学家周伯文表示,在技术创新中,一方面需在鼓励创新与防范风险间找到平衡点;另一方面,面对复杂的应用场景,需持续构建行业特定的评价与验证系统。上海人工智能实验室打造了人工智能安全验证体系“SafeWork”,融合了“Make AI Safe”与“Make Safe AI”两条技术路线;“司南(OpenCompass)”评测体系,正成为引领技术突破与产品创新的“人工智能度量衡”。
清华大学苏世民书院院长薛澜表示,从技术的角度来讲,安全可控是底线,要保证通过技术架构确保智能体的行为可验证、可干预、可追溯。从监管举措来说,非常核心的要点就是权责清晰是基础,要通过制度设计来明确各方责任,为创新提供明确的秩序轨道。明确用户授权,要遏制平台权限滥用,在这方面进一步做更明确的规则。要建立包容审慎分级监管的制度。
(文章来源:经济参考网)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

