DeepSeek未能阻止任何有害信息

作者: CBISMB

责任编辑: 张金祥

来源: ISMB

时间: 2025-02-10 12:09

关键字: Anthropic,DeepSeek,AI论理,AI安全

浏览: 0

点赞: 0

收藏: 0

Anthropic的首席执行官Dario Amodei在Jordan Schneider的ChinaTalk播客采访中,表达了对DeepSeek的担忧。在Anthropic对DeepSeek进行的安全测试中,R1模型生成了有关生物武器的罕见信息。他强调,DeepSeek在这一方面的表现“基本上是我们测试过的所有模型中最差的”,且“完全没有阻止生成这些信息”。这一发现引发了对于DeepSeek模型可能泄露敏感或危险信息的担忧。

作为人工智能基础模型提供商,Anthropic一直将安全视为首要任务。Amodei表示,这次测试是他们定期评估各种AI模型潜在国家安全风险的一部分。尽管目前他认为DeepSeek的模型在提供罕见和危险信息方面“真的危险”程度有限,但他警告说,未来这种情况可能会改变。

值得注意的是,思科安全研究人员上周也指出,DeepSeek R1在安全测试中未能有效阻止有害提示,越狱成功率高达100%。虽然思科并未提及生物武器,但他们确实能够让DeepSeek生成有关网络犯罪和其他非法活动的有害信息。此外,Meta的Llama-3.1-405B和OpenAI的GPT-4o在这一测试中的失败率也分别高达96%和86%,进一步凸显了AI模型在安全性方面普遍存在的问题。

尽管存在这些担忧,AWS和微软等公司已公开宣布将DeepSeek的R1模型整合到他们的云平台中。然而,与此同时,越来越多的国家、公司以及政府组织,如美国海军和五角大楼等,开始禁止DeepSeek的使用。

Amodei在采访中承认,DeepSeek已成为一个新的竞争对手,其水平与美国顶级AI公司相当。他表示:“现在的新情况是出现了新的竞争对手。在能够训练人工智能的大公司中——Anthropic、OpenAI、谷歌,也许还有Meta和xAI——现在DeepSeek可能也加入了这一类别。”