AI导读:

全国两会期间,代表委员们就AI技术的安全问题展开讨论,提出用安全大模型应对潜在风险,构建网络安全新生态。同时,DeepSeek等大模型的发展推动人工智能加速普及,但安全挑战也日益严峻。

【编者按】在全国两会召开之际,本报今起推出“寻擎记”特别策划,以“新质生产力发展图谱”为坐标,观察科技创新与产业创新的共振效应。通过具有代表性的企业样本,探寻它们在科技创新、模式革新、转型升级等方面的独到之处,挖掘企业如何在新质生产力的赛道上脱颖而出,成为行业发展的引擎。

近期,AI成为各界关注的焦点。在全国两会召开之际,接受中国证券报记者采访的部分代表委员表示,网络安全建设需要与时俱进,可以通过技术革新,用安全大模型来应对AI存在的潜在安全问题。“安全”必须要“快一步”——快一步抓产品、抓技术,既要看到技术的长板,也要看到技术的短板。

全国政协委员、360集团创始人周鸿祎:大模型广泛应用正构建网络安全新生态

人工智能(AI)带来的安全问题,是数字安全的一部分。全国政协委员、360集团创始人周鸿祎近日在接受中国证券报记者采访时表示,大模型快速迭代与成本降低,使得AI技术快速普及,成为带动千行百业生产力提升的新工具,但同时也带来AI幻觉、数据泄露、深度伪造等新出现的大模型应用风险。大模型的广泛应用正在构建网络安全新生态,周鸿祎表示,大模型带来的安全问题可分为基座模型的安全问题、客户端的安全问题、知识数据的安全问题、智能体的安全问题四个层面,他提出的解决思路是“以模制模”——用安全大模型来应对人工智能产生的安全问题,为数字世界的新发展构建一个安全底座。

今年以来,大模型领域各家企业争相发布新品,大模型性能不断提升,同时使用成本大幅降低,“大模型幻觉”也成为公众关注的热点。周鸿祎认为大模型的幻觉问题需要辩证看待,大模型的幻觉使其拥有类似人们所拥有的想象力,可以创作剧本、撰写文章,但在医疗、法律、金融、证券等不能出错的环节,需要采取措施防止大模型幻觉带来的安全风险。

周鸿祎表示,大模型应用软件可以通过链接互联网上的知识库来对信息进行校正,企业在应用大模型时可以接入企业专有知识库对幻觉进行校正。同时,随着大模型的发展,需要解决基座模型、客户端、智能体、知识数据四个层面的网络安全新挑战。

全国政协委员、奇安信董事长齐向东在接受采访时表示,Deepseek凭借优异的性能、较低的成本、开源开放的生态,将推动人工智能大模型垂直应用的快速发展。齐向东同时表示,人工智能也有“成长”的烦恼,随着人工智能技术的深度应用,安全挑战也日益严峻,保障人工智能时代的网络空间安全是重要课题。

全国人大代表,TCL创始人、董事长李东生近日接受记者采访时介绍,针对大型科技制造业企业融资受限等问题,他提出优化科技制造业融资环境的建议。对于AI相关话题,李东生提出加强对AI深度伪造欺诈管理的建议,并表示以DeepSeek为代表的AI技术的发展,对科技制造业的发展提供了很大帮助。

(文章来源:中国证券报)