ChatGPT 引用研究让出版商面临新挑战
作者: CBISMB
责任编辑: 张金祥
来源: ISMB
时间: 2024-12-02 11:37
关键字: ChatGPT
浏览: 3
点赞: 0
收藏: 0
托尔数字新闻中心近期发布的一项研究却揭示了这些工具在引文准确性方面存在的问题,引发了出版商和创作者的广泛关注。
这项研究由哥伦比亚大学新闻学院进行,旨在探讨ChatGPT如何为出版商的内容生成引文。研究人员从20家随机选择的出版商中摘录了大段引言,其中包括与ChatGPT制造商OpenAI有合作关系的出版商,如《金融时报》,也有未签署协议的出版商,如《纽约时报》和《华盛顿邮报》。

研究结果显示,无论出版商是否与OpenAI签署协议,其内容都可能受到ChatGPT不准确引用的影响。研究人员发现,ChatGPT在生成引文时存在大量错误案例,包括完全错误的引用、部分错误的引用以及介于两者之间的模糊引用。此外,ChatGPT在承认无法给出准确答案方面也缺乏透明度,这增加了用户评估声明有效性的难度。
更令人担忧的是,ChatGPT还可能鼓励抄袭行为。研究人员发现,ChatGPT有时会错误地引用抄袭了其他媒体内容的网站,作为原始报道的来源。这引发了人们对OpenAI过滤和验证数据源质量和真实性的能力的质疑。
对于出版商而言,ChatGPT的不准确引用不仅可能损害其声誉,还可能带来商业风险。读者可能会被引向错误的来源,导致出版商失去流量和广告收入。此外,即使出版商允许OpenAI的爬虫进入其网站,也无法保证内容的准确性和可见性。
研究人员指出,ChatGPT的根本问题在于将新闻视为“脱离语境的内容”,很少考虑其原始制作的情况。这导致ChatGPT在引用上下文时缺乏一致性,每次查询都可能返回不同的答案。
尽管OpenAI对研究结果表示异议,并强调其致力于支持出版商和创作者,但研究人员认为,就目前情况而言,出版商对于其内容的去向“几乎没有任何实质性的权力”。
因此,出版商需要谨慎对待与OpenAI等生成式AI工具的合作。在签署协议之前,他们应该充分了解这些工具的工作原理和潜在风险,并采取措施保护自己的权益。同时,研究人员也呼吁OpenAI等AI制造商加强技术改进,提高引文的准确性和透明度,以更好地服务于出版商和创作者。