中新网北京3月2日电 (记者 夏宾)人工智能发展日新月异。近来,国产大模型的火热降低了民众与企业的使用门槛,但其带来的安全问题不容忽视。如何保护数据安全、识别虚假信息、防御网络攻击等都是人工智能(AI)产业成长的“必答题”。

全国政协委员、360集团创始人周鸿祎近日在北京接受中新网等媒体采访时,谈及人工智能技术进步带来的新风险。

他认为,要正确认识AI的安全问题,不能夸大、不能忽视,也不要笼统地谈AI安全。一些美国头部AI公司想搞垄断和封闭,往往会夸大AI不安全的问题作为其不开源的借口,这样后来者就没有机会赶上他们。“我一直认为,不发展是最大的不安全”,周鸿祎说,必须抓住AI的这次机会,提升生产力,让每个人感受到科技普惠的成果。

周鸿祎称,AI的安全和业务发展可以“同步走”。人工智能尤其是大模型的安全问题不能以传统网络安全的解题方法来应对,智能体的安全、知识数据的安全、客户端的安全以及基座模型的安全,构成一个人工智能安全的全新领域,解决方法的关键是“以模制模”。

“我们花了很多功夫专门做安全大模型,就是用聪明的大模型智力、能力去管理知识库的使用,去管理智能体的调用,去管理基座模型的‘胡说八道’和对人的‘PUA攻击’。”周鸿祎说。

谈及当下大模型发展路径的开源和闭源发展路线,周鸿祎说,没有开源就没有互联网。开源就是把自己的朋友搞得多多的、把自己的敌人搞得少少的,不分国家、不分种族,只要对人工智能有兴趣的人都可以加入到开源社区中,与所有人一起分享成果。开源生态形成巨大的虹吸效应,一般来说,开源一旦形成气候,就能战胜闭源。

他说,开源对整个中国传统企业在利用大模型降本增效、打造新质生产力等方面的杠杆作用大。因此,将来中国在AI领域会借助生态带来更强的研发力量,带来更多的创新和改进,带来更多的标准。(完)

(图片来源网络侵删)