21世纪经济报道记者肖潇 北京报道
“AI大模型是底层的基础设施,我们需要为它做一整套纵深的安全体系。终端、网络、云上、应用……各个层面都要做好防御才行。这也是为什么今天的数据安全特别难做。” 6月5日,奇安信集团(上交所:688561)副总裁、首席数据安全科学家刘前伟在“第四届中国数据要素50人论坛”上表示。
作为网络安全公司员工和数据安全专家,刘前伟发现在大模型井喷后,网络安全碰到了三个前所未有的难题:
首先,生成式AI打破了“攻防平衡”的网络安全格局。刘前伟解释,尤其是代码大模型的普及,让以往低水平的黑客如今也能用AI生成高级攻击的脚本,打破了一直以来的网络安全防线。一个军事概念“饱和攻击”或许能形容眼下的安全攻击局势,即高密度、持续性的黑客攻击,这反过来对作为“防守方”的安全专业人员提出了更高要求。
第二,人工智能加剧了数据非法获取、恶意滥用的风险。“数据既是黑客窃取的目标,也可能是攻击的毒药。”刘前伟说,数据一旦被投毒会产生更严重的安全问题,比如网络安全类厂商的数据标注一旦被篡改,攻击样本被篡改为正常样本,“解毒”就成了“投毒”。
除此之外,敏感数据的泄露风波不断。一个典型案例是去年4月,三星集团被曝光多起数据泄露事件。根据韩媒报道,原因是三星允许半导体部门的工程师使用ChatGPT修复源代码问题,起码有三名员工直接输入了新程序的源代码本体、与硬件相关的内部会议记录等数据。这些敏感信息以提问的方式输入给ChatGPT,进入其训练数据库,从而泄露给了美国公司以及其他用户。
尽管尚没有发生滥用事件,但泄露本身已经令人不安。美国数据安全公司Cyberhaven曾统计160万员工使用AI的情况,发现3.1%的打工人曾直接将公司内部数据喂给ChatGPT分析。其中,一周内,有10万名员工上传了199份机密文件、173份客户数据和159次源代码。
棘手之处尤其在于,由于数据一旦投喂给AI大模型就难以被“撤回”,即使是三星这样的大型企业,也难有办法要求OpenAI直接删除公司的敏感数据。
第三,人工智能扩大了数据暴露面,数据要素的流通风险激增。刘前伟指出,一方面,随着大量企业业务走向数字化,企业数据在终端、应用、云上、数据中心之间流转,链路非常复杂,访问者的身份往往难以辨认和管理;
另一方面,过去的网络诈骗简单好防,如今的不法分子可以利用深度伪造技术模仿出声纹、人脸。“能够披着合法的外衣做坏事,很难及时捕捉到安全风险。”刘前伟无奈表示。
那么,如何才能完善人工智能冲击下的网络安全体系?刘前伟认为,需要在最开始就将安全能力内嵌到整个AI业务系统中,建立全方位的安全防御体系;他还提到,可以用AI技术来提高数据要素平台本身的安全性,尤其要升级对API接口的保护,这是去年90%数据安全事件的肇因;最后,可以分离调试环境与运行环境,先在调试环境中用少量样本训练大模型,再放入全量环境中,在不影响安全性的同时释放数据价值。
更多内容请下载21财经APP