GPT-5 中发现安全漏洞

作者: CBISMB

责任编辑: 张金祥

来源: ISMB

时间: 2025-08-11 10:36

关键字: OpenAI,ChatGPT,数据安全,创新,人工智能,安全漏洞,软件,安全

浏览: 975

点赞: 42

收藏: 69

两家独立的安全机构披露了OpenAI最新发布的GPT-5模型存在严重漏洞,这些漏洞可能对敏感行业的企业应用造成重大威胁。据全球安全研究机构Neuraltrust报告,其团队在短短24小时内利用“回音室技术”和多阶段提示操控,成功绕过了GPT-5的内置防护机制。他们通过渐进式诱导,促使模型生成了详细的爆炸装置制造指南。研究表明,传统的直接输入恶意指令方式容易被防护系统识别,而这种新型复合攻击方法通过拆分危险指令并结合虚构场景,则更容易突破防线。

另一家安全公司SPLX的测试结果进一步证实了风险。他们的“字符串连接攻击”在提示词之间插入特殊字符或虚构上下文,成功诱导GPT-5输出企业敏感数据泄露策略及非法活动指导。对比测试显示,之前版本的GPT-4o在处理类似攻击时表现得更加稳健,这表明OpenAI在最新模型中的防御机制尚未得到充分优化。

此次事件突显了AI红队测试在评估系统安全性中的关键作用。SPLX的安全主管指出,GPT-5暴露出的漏洞表明,仅靠基础的过滤机制无法应对复杂的攻击。攻击者正在利用模型对复杂语境的理解能力,开发更隐蔽的渗透手段。

专家分析认为,此次漏洞可能迫使企业推迟GPT-5的商用计划,尤其是在金融、医疗和国防等高风险领域。全球AI治理联盟已呼吁建立更严格的第三方安全认证体系,要求厂商在产品发布前进行多轮红队压力测试。

对此情况,OpenAI发言人表示,正在与安全团队密切合作,优先修复报告中的漏洞,并计划升级对抗性训练数据集。然而,公司尚未明确提出具体的时间安排,也未说明是否会暂停GPT-5的企业服务推广。

此次事件再次将AI安全性问题推向了风口浪尖。麻省理工学院AI伦理实验室主任表示,技术能力的飞跃需要与安全防护的进步同步。当攻击手段变得越来越“人性化”时,防御机制也应该从基于规则的方式转向更智能的语境分析。

©本站发布的所有内容,包括但不限于文字、图片、音频、视频、图表、标志、标识、广告、商标、商号、域名、软件、程序等,除特别标明外,均来源于网络或用户投稿,版权归原作者或原出处所有。我们致力于保护原作者版权,若涉及版权问题,请及时联系我们进行处理。