OpenAI GPT-5:政治偏见减少30%

作者: CBISMB

责任编辑: 邹大斌

来源: ISMB

时间: 2025-10-11 11:07

关键字: OpenAI,GPT,大模型

浏览: 2254

点赞: 122

收藏: 15

OpenAI表示,GPT-5相比其之前的AI模型,政治偏见减少了30%。

这一说法很难评估,因为自从机器学习出现以来,AI模型的偏见问题就一直存在,特别是自2022年底ChatGPT(GPT-3.5)问世以来。当时的ChatGPT在政治指南针基准测试中表现出左翼政治偏见。

图宾根大学AI安全研究小组负责人Thilo Hagendorff在最近的一篇预印本论文中认为,大语言模型中的左翼政治偏见是不可避免的。他认为,右翼意识形态与使模型无害、有益且诚实(HHH)的模型对齐指南相冲突。

“然而,关于大语言模型中政治偏见的研究,一直将其对左翼倾向的见解视为风险、问题或令人担忧的现象,”Hagendorff写道,“这种方式,研究人员实际上是在反对AI对齐,暗中推动违反HHH原则。”

如果你问ChatGPT(目前为GPT-5)是否存在政治偏见,它会给出这个观点。除了训练数据和问题表述等其他偏见来源外,该聊天机器人还提到了安全指南:“它遵循规则,避免支持仇恨、极端主义或错误信息——有些人可能会将其解读为‘政治偏见’。”

尽管如此,美国总统唐纳德·特朗普今年早些时候发布了一项关于“防止联邦政府中的觉醒AI”的行政命令。该命令要求AI模型既追求真相,又在意识形态上保持中立——同时否定多样性、公平性和包容性等概念,称其为“教条”。

据GPT-5统计,arXiv上有数十篇论文专注于大语言模型中的政治偏见,还有一百多篇论文更广泛地讨论了大语言模型的政治影响。根据谷歌搜索,关键词“大语言模型中的政治偏见”在arXiv.org上返回了大约13,000个结果。

在此背景下,OpenAI在周四发布的一篇研究文章中表示:“ChatGPT不应有任何方向的政治偏见。”

根据OpenAI自己的研究,一项包含约500个涵盖约100个主题提示的评估显示,GPT-5几乎无偏见。

“GPT-5即时版和GPT-5思考版均表现出更佳的偏见水平和更强的抗敏感提示能力,相比我们之前的模型,偏见减少了30%,”该公司表示,并指出根据实际生产流量,“所有ChatGPT回应中,不到0.01%显示出任何政治偏见迹象。”

伊利诺伊大学厄巴纳-香槟分校助理教授Daniel Kang表示,尽管他尚未评估OpenAI的具体方法,但对此类说法应持谨慎态度。

“AI中的评估和基准测试存在重大缺陷,其中两点在这里尤为相关:1)基准测试与人们关心的实际任务有多大关联;2)基准测试是否真的能测量它声称测量的东西?”Kang在一封电子邮件中解释道,“最近的一个例子是,OpenAI的GDPval并不能衡量AI对GDP的影响!因此,在我看来,这个名字极具误导性。”

Kang表示:“政治偏见 notoriously 难以评估。在独立分析完成之前,我警告大家不要解读这些结果。”

我们认为,政治偏见——例如,模型输出偏向人类生命而非死亡——不仅在训练于人类创建内容的大语言模型中不可避免,而且是可取的。如果一个模型的回应被剥夺了任何价值观,它还能有多大用处?更有趣的问题是如何调整大语言模型的偏见。

©本站发布的所有内容,包括但不限于文字、图片、音频、视频、图表、标志、标识、广告、商标、商号、域名、软件、程序等,除特别标明外,均来源于网络或用户投稿,版权归原作者或原出处所有。我们致力于保护原作者版权,若涉及版权问题,请及时联系我们进行处理。