您当前的位置:首页 > 指南 > 正文

研究表明GPT-4可以自行利用安全漏洞

导读 生成式人工智能至少每周都会找到一种新的方式来恐吓我们。我们仍在焦急地等待OpenAI的下一个大型语言模型的消息,但与此同时,GPT-4正在变...

生成式人工智能至少每周都会找到一种新的方式来恐吓我们。我们仍在焦急地等待OpenAI的下一个大型语言模型的消息,但与此同时,GPT-4正在变得比您想象的更加强大。在最近的一项研究中,研究人员展示了GPT-4如何在无需人工干预的情况下利用网络安全漏洞。

正如该研究(由TechSpot发现)所解释的那样,像OpenAI的GPT-4这样的大型语言模型(LLM)近年来取得了重大进展。这引起了人们对法学硕士代理人的极大兴趣,这些代理人可以自行行动以协助软件工程或科学发现。但只要有一点帮助,它们也可以被用于恶意目的。

考虑到这一点,研究人员试图确定法学硕士代理是否可以自主利用一日漏洞。答案是肯定的。

首先,他们从常见漏洞和暴露(CVE)数据库中收集了15个现实世界的一日漏洞。然后,他们创建了一个代理,其中包含基础LLM、提示符、代理框架以及多个工具,例如网页浏览元素、代码解释器以及创建和编辑文件的功能。总共有10个法学硕士在此框架内使用,但有9个未能取得任何进展。第10名,GPT-4,取得了令人震惊的87%的成功率。

尽管GPT-4非常有效,但当研究人员不提供CVE描述时,其成功率从87%下降至7%。基于这些结果,伊利诺伊大学香槟分校(UIUC)的研究人员认为,“增强智能体的规划和探索能力将提高这些智能体的成功率。”

研究人员在研究结论中表示:“我们的研究结果表明,存在涌现能力的可能性,而且发现漏洞比利用漏洞更困难。”“尽管如此,我们的研究结果强调了更广泛的网络安全社区和LLM提供商需要仔细考虑如何将LLM代理整合到防御措施中以及如何广泛部署它们。”

他们还指出,他们在发布研究报告之前向OpenAI披露了他们的发现,并且该公司要求他们不要与公众分享他们的提示。


声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,谢谢。

上一篇: 由于耳机未能找到市场苹果削减了VisionPro的出货量

下一篇: 苹果FineWoven配件失败的3个原因



推荐阅读