人工智慧(AI)聊天机器人ChatGPT使用者激增,英国“卫报”意外发现ChatGPT会凭空杜撰新闻报导。编辑主管说,近期将公布利用这类AI软体的准则。
根据中央社报导,卫报(The Guardian)编辑创新负责人莫兰(Chris Moran)今天撰文说,旗下记者上月收到一封电子邮件,一名研究人员在信中提到一篇卫报记者数年前针对一项特定主题撰写的文章,但在网站上或利用搜寻引擎都找不到这篇文章。
莫兰好奇:这篇报导会不会在刊出后改过标题?或因为发现某个问题而刻意从网站上撤除?还是因为题材的关系,透过法律途径被迫撤稿?
记者不记得写过这篇文章,但标题听起来确实像是卫报记者会写的东西。
莫兰说,由于担心卫报系统出错,他们要求同事回头在内部系统找出这篇报导。然而,尽管他们保留了所有内容的详细纪录,尤其是关于删改或攸关法律问题的内容,仍找不到这篇文章,原因在于“从来就没人写过这篇报导”。
致函卫报的研究人员告知,他们使用ChatGPT进行研究。莫兰认为,ChatGPT被问及特定主题的报导时,编造了一些内容。
ChatGPT的流畅性及其大量训练数据基础,意味著连从没写过这篇文章的人也可能相信这篇虚构文章确实存在。
莫兰指出,目前已有大量资料提到,生成式人工智慧(Generative AI)具有捏造事实及事件的倾向,这种“发明消息来源”的特殊问题让可信的新闻机构和记者特别头痛,因为这些机构和记者被卷入,会替那些令人信以为真的虚构文字增添正当性与重要性。
他说,对于读者及更广泛的资讯生态系统而言,ChatGPT提出了能否无条件信任引述内容的大哉问,而且很可能助长偷偷删除敏感文章的阴谋论,但其实这些文章原本就不存在。
莫兰提醒,如果这看起来像是一起罕见个案,那么大家务必注意,ChatGPT去年11月推出时还乏人问津,到今年1月已有1亿名每月活跃用户,而大受欢迎的中国短影音应用程式TikTok要花9个月才达到同样水准。
后来,科技公司微软(Microsoft)也在搜寻引擎Bing当中导入同样的技术,迫使谷歌(Google)跟进推出聊天机器人Bard。
莫兰还提到,一名学生2天前联系卫报档案组,询问另一篇具名记者撰写的文章,系统再度查无纪录,一问发现来源也是ChatGPT。
他说,由于生成式AI运作不透明,人们很容易陷入它提供的细节。跨专业学者钻研的想法和影响相当复杂,随著技术快速发展,已坐拥庞大市占率的企业正尽快结合这种技术以获得竞争优势,同时相互扰乱,最重要的是让所有股东满意。
负责任的新闻机构面临的问题则既简单又紧迫:这项技术现在能做什么?当广大资讯生态系统已因错误讯息、极端化及不肖人士而备感压力时,如何让ChatGPT有利于负责任的报导?
莫兰说,这正是卫报目前致力解决的问题,报社已筹组工作小组及小型工程团队,专注于技术学习、考量公共政策及智慧财产权相关问题、听取学者和从业人员意见、与同业讨论、谘询并培训员工,同时安全且负责任地探索这项技术运用在新闻报导上的效果。
莫兰预告,未来数周将发布清晰简洁的解释,说明卫报未来计划如何使用生成式AI,并持续坚守最高新闻标准,为报社发布的新闻向读者及世界负起责任。