OpenAI GPT-5:政治偏见减少30%
作者: CBISMB
责任编辑: 邹大斌
来源: ISMB
时间: 2025-10-11 11:07
关键字: OpenAI,GPT,大模型
浏览: 2254
点赞: 122
收藏: 15
OpenAI表示,GPT-5相比其之前的AI模型,政治偏见减少了30%。
这一说法很难评估,因为自从机器学习出现以来,AI模型的偏见问题就一直存在,特别是自2022年底ChatGPT(GPT-3.5)问世以来。当时的ChatGPT在政治指南针基准测试中表现出左翼政治偏见。
图宾根大学AI安全研究小组负责人Thilo Hagendorff在最近的一篇预印本论文中认为,大语言模型中的左翼政治偏见是不可避免的。他认为,右翼意识形态与使模型无害、有益且诚实(HHH)的模型对齐指南相冲突。
“然而,关于大语言模型中政治偏见的研究,一直将其对左翼倾向的见解视为风险、问题或令人担忧的现象,”Hagendorff写道,“这种方式,研究人员实际上是在反对AI对齐,暗中推动违反HHH原则。”
如果你问ChatGPT(目前为GPT-5)是否存在政治偏见,它会给出这个观点。除了训练数据和问题表述等其他偏见来源外,该聊天机器人还提到了安全指南:“它遵循规则,避免支持仇恨、极端主义或错误信息——有些人可能会将其解读为‘政治偏见’。”
尽管如此,美国总统唐纳德·特朗普今年早些时候发布了一项关于“防止联邦政府中的觉醒AI”的行政命令。该命令要求AI模型既追求真相,又在意识形态上保持中立——同时否定多样性、公平性和包容性等概念,称其为“教条”。
据GPT-5统计,arXiv上有数十篇论文专注于大语言模型中的政治偏见,还有一百多篇论文更广泛地讨论了大语言模型的政治影响。根据谷歌搜索,关键词“大语言模型中的政治偏见”在arXiv.org上返回了大约13,000个结果。
在此背景下,OpenAI在周四发布的一篇研究文章中表示:“ChatGPT不应有任何方向的政治偏见。”
根据OpenAI自己的研究,一项包含约500个涵盖约100个主题提示的评估显示,GPT-5几乎无偏见。
“GPT-5即时版和GPT-5思考版均表现出更佳的偏见水平和更强的抗敏感提示能力,相比我们之前的模型,偏见减少了30%,”该公司表示,并指出根据实际生产流量,“所有ChatGPT回应中,不到0.01%显示出任何政治偏见迹象。”
伊利诺伊大学厄巴纳-香槟分校助理教授Daniel Kang表示,尽管他尚未评估OpenAI的具体方法,但对此类说法应持谨慎态度。
“AI中的评估和基准测试存在重大缺陷,其中两点在这里尤为相关:1)基准测试与人们关心的实际任务有多大关联;2)基准测试是否真的能测量它声称测量的东西?”Kang在一封电子邮件中解释道,“最近的一个例子是,OpenAI的GDPval并不能衡量AI对GDP的影响!因此,在我看来,这个名字极具误导性。”
Kang表示:“政治偏见 notoriously 难以评估。在独立分析完成之前,我警告大家不要解读这些结果。”
我们认为,政治偏见——例如,模型输出偏向人类生命而非死亡——不仅在训练于人类创建内容的大语言模型中不可避免,而且是可取的。如果一个模型的回应被剥夺了任何价值观,它还能有多大用处?更有趣的问题是如何调整大语言模型的偏见。