OpenAI 试图“解除”ChatGPT 的审查
作者: CBISMB
责任编辑: 张金祥
来源: ISMB
时间: 2025-02-18 11:47
关键字: 人工智能,审查,OPENAI
浏览: 63
点赞: 0
收藏: 0
在人工智能领域,OpenAI正在实施一系列重大的政策变更,以确保其训练的AI模型可以更广泛地参与有争议的讨论。这一转变的重点是“思想自由”,无论主题多么具有挑战性或争议性。此变化不仅会使ChatGPT能够回答更广泛的问题,还可能在硅谷的更广泛文化转变中发挥重要作用,尤其是在“人工智能安全”的新定义方面。

新政策的核心
周三,OpenAI发布了更新的模型规范文档,长度达到187页,详细描述了其训练AI模型的方式。该规范中提出了新的指导原则,明确要求模型“不撒谎”,无论是否是在陈述不真实的信息或省略重要背景资料。
在一个名为“共同寻求真相”的新部分中,OpenAI声明希望ChatGPT能够保持中立,不会在道德上对特定议题采取偏见,尽管这可能引发争议。例如,OpenAI提出,ChatGPT在讨论“黑人的生命很重要”运动时,亦应同时强调“所有人的生命都很重要”。这种方法旨在确保AI能够全面展示多种观点,帮助用户更好地理解复杂话题,而非仅仅反映其中一个立场。
OpenAI在其规范中指出:“这一原则可能会引起争议,因为这意味着助手可能会对某些人认为道德错误或冒犯的话题保持中立。然而,人工智能助手的目标是协助人类,而不是塑造人类。”
这一政策变化被外界解读为OpenAI对保守派批评的回应。过去几个月,保守派人士对OpenAI的内容审核政策提出了尖锐的指责,认为这些政策偏向中左翼。特朗普的朋友们,包括硅谷知名投资者大卫·萨克斯和马克·安德森,曾公开声称OpenAI在内容审核中展示了偏见。
OpenAI首席执行官Sam Altman承认,ChatGPT所存在的偏见是一个遗憾的“缺陷”,并表示公司希望通过这些变化改善这一问题。Altman在推特上的一篇文章中提到,尽管有些功能如拒绝创作赞美特朗普的诗,但反向操作对于其他政治人物则表示支持。
新政策对ChatGPT的影响
尽管新政策暗示了开放的态度,ChatGPT仍然会拒绝回答一些敏感、不适当或显然虚假的问题。这些变化使得OpenAI在保护用户隐私、分析内容的同时,致力于向用户提供更有益的信息。
然而,这种转变也标志着技术公司的文化变革。许多科技公司已经解散长期存在的信任与安全团队,允许更广泛的、有争议的内容在他们的平台上流通。转变贴合了保守派对言论自由的期待并促使技术组件的审查成为一个重要的文化议题。
硅谷的价值观转变
OpenAI的变化并不是一个独立现象,硅谷的整体文化也在发生变化。马克·扎克伯格在赞扬埃隆·马斯克的言论自由政策时,指出Meta正在调整其业务以符合《第一修正案》的原则。尽管这些转变可能会损害与广告商的关系,但与马斯克不同的是,Meta的广告商似乎对此并不感到担忧。
而除了OpenAI,谷歌、亚马逊和英特尔等大公司也在多个方面削减或取消多元化计划,反映出更广泛的企业文化转型。
OpenAI近期启动了5000亿美元的基础设施项目——人工智能数据中心Stargate,此项目的成功对建立其与特朗普政府的关系至关重要。人工智能的演变对于硅谷及其巨头而言,意味着不仅需要适应用户需求,同时也必须把握政策环境的变化。
正如George Mason大学的研究员Dean Ball所说,随着AI模型变得越来越智能,对人们理解世界方式的影响将变得日益重要。这种进步也促使AI提供更综合、平衡的视角,而不仅仅是对特定观点的支持。
结论
OpenAI的政策变化不仅仅是对于保守派压力的回应,它还反映了硅谷在面对复杂社会问题时的价值观转变。随着AI在日常生活中的应用越来越普遍,允许AI模型以多元的方式探讨有争议的话题,可能是推进技术发展的必要一步。然而,如何平衡信息自由、道德责任和用户保护,将是OpenAI、硅谷及整个技术行业面临的持久挑战。