微软和 OpenAI 今天透露,黑客已经在使用 ChatGPT 等大型语言模型来完善和改进他们现有的网络攻击。在最新发布的研究报告中,微软和 OpenAI 发现俄罗斯、朝鲜、伊朗和中国支持的组织试图利用 ChatGPT 等工具研究目标、改进脚本并帮助构建社交工程技术。
微软在今天的一篇博文中说:"网络犯罪集团、民族国家威胁行动者和其他对手正在探索和测试新出现的各种人工智能技术,试图了解它们对其行动的潜在价值以及它们可能需要规避的安全控制。"
与俄罗斯军事情报机构有关联的"锶"组织被发现使用 LLMs"了解卫星通信协议、雷达成像技术和特定技术参数"。该黑客组织也被称为 APT28 或 Fancy Bear,在俄罗斯的乌克兰战争期间一直很活跃,此前曾参与2016 年针对希拉里-克林顿总统竞选活动的攻击。
据微软称,该小组还一直在使用 LLM 来帮助完成"基本的脚本任务,包括文件操作、数据选择、正则表达式和多进程处理,以实现技术操作的自动化或优化"。
一个名为 Thallium 的朝鲜黑客组织一直在使用 LLMs 来研究公开报道的漏洞和目标组织,帮助完成基本的脚本任务,并为网络钓鱼活动起草内容。微软称,名为 Curium 的伊朗组织也一直在使用 LLMs 生成网络钓鱼电子邮件,甚至是用于躲避杀毒软件检测的代码。与中国政府有关联的黑客也在使用 LLMs 进行研究、编写脚本、翻译和改进现有工具。
人们一直担心在网络攻击中使用人工智能,特别是出现了像 WormGPT 和 FraudGPT 这样的人工智能工具来协助创建恶意电子邮件和破解工具。美国国家安全局的一位高级官员上个月也警告说,黑客正在利用人工智能让他们的钓鱼邮件看起来更有说服力。
微软和 OpenAI 尚未发现任何使用 LLMs 的"重大攻击",但这两家公司已经关闭了与这些黑客组织相关的所有账户和资产。微软表示:"与此同时,我们认为这是一项重要的研究,通过发布来揭露我们观察到的知名威胁行为者试图采取的早期、渐进式行动,并与防御者社区分享我们如何阻止和反击这些行动的信息。"
虽然目前人工智能在网络攻击中的应用似乎还很有限,但微软对未来的使用案例(如语音冒充)发出了警告。"人工智能驱动的欺诈是另一个令人严重关切的问题。语音合成就是一个例子,三秒钟的语音样本就能训练出一个听起来像任何人的模型,即使是像语音邮件问候语这样无害的东西,也可以用来获得足够的样本。"
微软的解决方案是利用人工智能来应对人工智能攻击。"人工智能可以帮助攻击者提高攻击的复杂程度,而且他们有足够的资源来应对。"微软首席检测分析经理霍马-海蒂法(Homa Hayatyfar)说。"我们已经从微软追踪的 300 多个威胁行为体身上看到了这一点,我们使用人工智能来保护、检测和应对。"
微软正在打造一款新的人工智能助手Security Copilot,专为网络安全专业人士设计,用于识别漏洞并更好地理解每天通过网络安全工具产生的大量信号和数据。在 Azure 云遭受重大攻击,甚至俄罗斯黑客监视微软高管之后,这家软件巨头也在全面整顿其软件安全机制。
了解更多:
https://www.microsoft.com/en-us/security/blog/2024/02/14/staying-ahead-of-threat-actors-in-the-age-of-ai/