“失望但并不意外”:前员工谈OpenAI反对SB 1047的原因
CBISMB
责任编辑:张金祥
ISMB
时间:2024-08-26 10:51
OpenAI SB 1047
两名因安全问题于今年辞职的OpenAI前研究人员表示,他们对OpenAI决定反对加州防止人工智能灾难的法案 SB 1047 感到失望但并不意外。Daniel Kokotajlo和William Saunders此前警告称,OpenAI正在“不计后果”地争夺主导地位。
“我们的前老板Sam Altman曾多次呼吁对人工智能进行监管”他们在与Politico分享的一封信中写道,并敦促加州州长Gavin Newsom签署该法案。“现在,当实际监管摆上台面时,他却反对。”两人补充道,“有了适当的监管,我们希望OpenAI 能够履行其安全构建AGI的使命宣言。
OpenAI一位发言人的声明中回应这些前员工,称这家初创公司“强烈反对对我们在 SB 1047 法案上的立场的错误描述”。这位发言人指出,OpenAI 已在国会支持AI法案,并指出“前沿 AI 安全法规应在联邦层面实施,因为它们对国家安全和竞争力有影响。”
OpenAI 的竞争对手 Anthropic 表示支持该法案,同时提出了具体担忧并要求修改。此后,几项法案已被采纳,周四,首席执行官 Dario Amodei 致信纽森,称当前法案的“好处可能大于成本”,但并未完全认可该法案。
关于OpenAI内部的道统之争,在去年的宫斗大戏之后被扒开了冰山一角,在成功之后Altman的激进作法,让曾经想法最激进的首席科学家,也是力排众议成功让GPT诞生之人都认为过于激进,而在不久前因为理念不合选择离职,最终这个以Open为名义而建立的公司会走到何种地步,依靠什么来实现持续高投入之下的赢利,是AI行业到底是金玉还是泡沫的一项重要指标。
延伸阅读:
关于SB 1047法案
SB 1047 法案的全称是《前沿人工智能模型安全创新法案》(SB 1047: Frontline AI Model Safety Innovation Act),是加州立法机构提出的一项旨在规范人工智能大模型的法律。该法案旨在通过建立明确的安全标准,防止高风险的人工智能模型被滥用或引发灾难性后果。
主要内容及争议
适用范围: 该法案主要针对计算能力强大、成本高昂的大型语言模型,旨在对这些模型的开发和部署进行监管。
安全标准: 法案要求开发人员在部署模型之前进行严格的安全评估,以确保模型不会产生有害的输出或被用于非法目的。