(相关资料图)

新华财经北京7月6日电(记者彭思雨)7月6日,数字安全高峰论坛暨BCS2023北京网络安全大会开幕式在京举办。奇安信集团董事长齐向东在接受记者采访时表示,奇安信对在研的类ChatGPT大模型要求很高,公司有高水平的人工智能研究院,在做类ChatGPT大模型研发过程中高度结合客户的实际需求,把ChatGPT领回去变成自己的力量,像雇佣一个高级员工一样。“未来我们发布的人工智能产品一定是对政府和企业客户可以交付的,等到产品能够交付时,我们才会发布。现在还没有需要发布的信息。”

记者注意到,4月6日,奇安信在互动平台表示,公司正在基于ChatGPT相关技术等,训练奇安信专有的类ChatGPT安全大模型。未来将广泛应用于安全产品开发、威胁检测、漏洞挖掘、安全运营及自动化、攻防对抗等领域。

齐向东表示,AI大模型在变革社会生产方式的同时,也带来新的安全隐患,网络攻防产生新的不平衡。主要的安全隐患包括人工智能黑客实施攻击,黑客利用人工智能来提升攻击能力,以及利用AI大模型以假乱真,实施诈骗。

在提及网络安全公司如何展开生成式AI安全业务的问题时,齐向东首先明确了公司参与此类业务的界限。“奇安信不做文化、价值观是否合规等内容安全业务。但类似企业内部员工向公共的AI平台投喂涉密数据而引发的数据泄露安全问题,我们管;奇安信有一整套解决方案来解决这类问题。企业本地部署AI大模型系统过程中出现的安全问题,我们也管。”齐向东表示。

据他介绍,一组研究数据显示,2.3%的员工将公司的机密数据投喂给ChatGPT,企业平均每周向ChatGPT泄露机密材料达数百次。

齐向东在大会现场演讲时谈到,人工智能就是“人+数据+智能”。做好安全合规,不能从简单的产品堆砌入手,要配合安全体系,从“管理、技术、运营”三方面开展数据安全的治理与防护工作,打造体系化的内生安全。

编辑:罗浩

推荐内容