人类距离将网络安全的控制权交给生成式AI还有多远?
前情回顾·RSAC2024动态
-
伪造内容鉴别厂商Reality Defender斩获2024 RSAC创新沙盒冠军
-
RSAC 2024上值得关注的10款网络安全产品
-
RSAC 2024创新沙盒十强出炉,谁能夺冠?
安全内参5月8日消息,在RSAC 2024现场,谷歌深入探讨了大语言模型(LLM)在网络安全领域的应用前景。
作为谷歌和DeepMind AI网络安全技术和研究负责人,Elie Bursztein揭示了一个问题:人类距离将网络安全的控制权交给生成式AI,以执行诸如零样本内容审核、识别和修复开源代码库中的漏洞、检测并修复软件漏洞等任务,还有多远。
Bursztein表示:“虽然人们想象这一天可能即将到来,也许只需几个月,但我认为它并不会立即到来。”
在RSAC大会的一场名为“大模型如何重塑网络安全格局”的座谈会上,他告诉观众:“最终,AI将使我们(在应对AI助力对手时)重新获得优势,因为使用AI的的确确会带来许多好处。”
在野利用危险性评估
Bursztein一开始就谈到了对抗性生成式AI的在野应用情况。最令人担忧的是对手拥有传播虚假信息的能力,其次是将生成式AI用于制作令人信服的网络钓鱼邮件。
安全专家目前无需担心以下新威胁:攻击者成功地利用技术创建新型恶意软件,或构建核武器、化学武器或生物武器。
图:对当前人工智能武器化风险的评估
Bursztein表示,另一方面,大模型在网络防御方面正在逐渐成熟,具有光明的未来。
他说:“我认为我们可以尝试探讨AI的新用例,在哪些领域可以提供额外的、更深层次的层面,来增强(现有的)安全性。”
他表示,安全专家应该为当前和下一代的AI攻击做好充分的准备。
最有前景的应用场景
Bursztein在演讲中花了大量篇幅来探讨大模型的潜在应用前景,包括:
-
通过训练大模型的泛化能力综合模拟人类推理能力。这将使得AI技术能够在无需手动审核的情况下对用户生成的内容进行分类,例如解析网络钓鱼邮件和应对不断增多的社交媒体虚假信息事件。
-
通过生成引擎对图像、文本、视频或代码进行多模态理解,从而分析内容是否具有恶意。
-
代码理解。AI可以扫描GitHub等代码库,识别恶意代码并进行标记,还可以提供安全的代码替代方案。
-
利用人工智能的生成能力加速事件响应。Bursztein表示,通过任务自动化、缩小响应时间窗口、加快事件响应速度,AI有望改进安全性,这将对安全团队产生重大影响。
Bursztein说:“在事件响应中,时间至关重要。我们响应得越快,情况就越好,攻击的影响就越小。”
希望有一天生成式AI能够为事件建模,或者生成接近实时的事件报告,以大幅提高事件响应速度。
Bursztein表示:“通过AI辅助事件响应,我们希望能够极大地提高响应速度,使攻击者更难以为继。”
未来挑战
对于网络安全行业来说,要实现生成式AI增强的未来还有很长的路要走。
使用AI来检测和修复软件漏洞的效果参差不齐。目前,AI通过识别和缓解漏洞改善代码安全性的能力也明显不足。
Bursztein表示,漏洞检测方面存在诸多挑战,例如数据集含有噪声、难以批量识别易受攻击的代码等。在谷歌内部代码库上进行的机器学习模型实验结果不一,有些漏洞被修复了,而其他一些则被忽视。鉴于准确性和成功率的问题,AI生成的补丁在短期内能否取得成功值得怀疑。
不过,有些流程是生成式AI擅长的。Bursztein指出,使用AI进行事件响应可以将编写事件摘要所需的时间减少一半。他说:“在AI的能力和可靠性完全达到我们需要的程度之前,我们需要进行更多的研究和创新。我希望(RSA大会)能够激发人们对进入这个领域的热情。如果您还没有加入,现在应该开始考虑如何利用AI。”
参考资料:https://www.scmagazine.com/news/rsac-2024-google-on-the-promise-of-large-language-models-and-cybersecurity、https://cdn.elie.net/static/files/how-large-language-models-are-reshaping-the-cybersecurity-landscape-rsa-2024/how-large-language-models-are-reshaping-the-cybersecurity-landscape-rsa-2024.pdf
声明:本文来自安全内参,版权归作者所有。