(综合报导)英国广播公司(BBC)最新研究显示,当前市场上领先的人工智慧(AI)工具在回应时事问题时,经常出现错误资讯、扭曲事实及误导性内容,可能对公众的新闻信任度构成威胁。 BBC的研究对象涵盖四款知名AI工具——ChatGPT、Copilot、Gemini与Perplexity。研究人员以BBC文章为来源,向上述AI工具询问100个与新闻时事相关的问题,并由BBC专业记者评估回应。结果显示,超过半数回答存在「重大问题」,约20%回答在数字、日期或陈述上存在事实性错误,13%回答中引述的报导内文遭到窜改或纯粹由AI杜撰。 BBC研究指出,AI提供的错误资讯面向涵盖广泛,可能向使用者提供错误的时事资讯。例如ChatGPT与其他AI声称苏纳克(Rishi Sunak)仍为英国首相,而施特金(Nicola Sturgeon)仍为苏格兰首席大臣,但事实上,两人已分别于2024年和2023年卸任。 AI也可能错误解读官方的政策建议。Gemini回应英国国民保健署(NHS)关于电子烟的建议时,直接表示NHS反对电子烟,并建议使用其他戒菸方式,而实际上NHS对电子烟的立场更为细致,并非完全禁止。 同时,AI也可能扭曲犯罪事件的报导,Copilot谈及法国一则性侵案时,对受害者的描述与事实存在重大出入。Gemini在回应杀害新生儿的英国护理师莱比(Lucy Letby)时,避重就轻地回答:「是否相信她无辜或有罪取决于个人判断」,完全忽略她已因谋杀与谋杀未遂罪被法院定罪的背景资讯。 此外,BBC还提到,苹果公司近期因向iPhone用户推送不慎精确的新闻摘要后,不得不暂停推送通知。其中一个错误案例是,苹果的AI系统误称涉嫌谋杀联合健康保险执行长的嫌犯已开枪自杀,然而事实并非如此。 BBC新闻执行长图内斯(Deborah Turness)对此发出严厉警告:「人工智慧工具正在玩火,这些技术可能会破坏公众对事实的脆弱信心」。她强调,AI企业必须承担责任,确保产品能准确呈现新闻资讯,而不是进一步加剧混乱。她呼吁企业和新闻机构合作,确保时事内容的准确性,避免错误资讯扩散。 BBC生成式人工智慧节目总监亚彻(Peter Archer)表示,此次研究只触及了问题的表面,AI生成错误新闻的规模与影响仍不明确。他强调,新闻机构应该有权掌控其内容的使用方式,而企业也应揭露系统如何处理新闻资讯,以及错误发生的频率与原因。
© 维加斯新闻网和维加斯新闻报版权所有,转载必究 隐私权政策 All Rights Reserved. ©2018 lvcnn.com Software ©2018 Las Vegas Chinese News Network Corp.