(綜合報導)英國廣播公司(BBC)最新研究顯示,當前市場上領先的人工智慧(AI)工具在回應時事問題時,經常出現錯誤資訊、扭曲事實及誤導性內容,可能對公眾的新聞信任度構成威脅。 BBC的研究對象涵蓋四款知名AI工具——ChatGPT、Copilot、Gemini與Perplexity。研究人員以BBC文章為來源,向上述AI工具詢問100個與新聞時事相關的問題,並由BBC專業記者評估回應。結果顯示,超過半數回答存在「重大問題」,約20%回答在數字、日期或陳述上存在事實性錯誤,13%回答中引述的報導內文遭到竄改或純粹由AI杜撰。 BBC研究指出,AI提供的錯誤資訊面向涵蓋廣泛,可能向使用者提供錯誤的時事資訊。例如ChatGPT與其他AI聲稱蘇納克(Rishi Sunak)仍為英國首相,而施特金(Nicola Sturgeon)仍為蘇格蘭首席大臣,但事實上,兩人已分別於2024年和2023年卸任。 AI也可能錯誤解讀官方的政策建議。Gemini回應英國國民保健署(NHS)關於電子煙的建議時,直接表示NHS反對電子煙,並建議使用其他戒菸方式,而實際上NHS對電子煙的立場更為細緻,並非完全禁止。 同時,AI也可能扭曲犯罪事件的報導,Copilot談及法國一則性侵案時,對受害者的描述與事實存在重大出入。Gemini在回應殺害新生兒的英國護理師萊比(Lucy Letby)時,避重就輕地回答:「是否相信她無辜或有罪取決於個人判斷」,完全忽略她已因謀殺與謀殺未遂罪被法院定罪的背景資訊。 此外,BBC還提到,蘋果公司近期因向iPhone用戶推送不慎精確的新聞摘要後,不得不暫停推送通知。其中一個錯誤案例是,蘋果的AI系統誤稱涉嫌謀殺聯合健康保險執行長的嫌犯已開槍自殺,然而事實並非如此。 BBC新聞執行長圖內斯(Deborah Turness)對此發出嚴厲警告:「人工智慧工具正在玩火,這些技術可能會破壞公眾對事實的脆弱信心」。她強調,AI企業必須承擔責任,確保產品能準確呈現新聞資訊,而不是進一步加劇混亂。她呼籲企業和新聞機構合作,確保時事內容的準確性,避免錯誤資訊擴散。 BBC生成式人工智慧節目總監亞徹(Peter Archer)表示,此次研究只觸及了問題的表面,AI生成錯誤新聞的規模與影響仍不明確。他強調,新聞機構應該有權掌控其內容的使用方式,而企業也應揭露系統如何處理新聞資訊,以及錯誤發生的頻率與原因。
© 維加斯新聞網和維加斯新聞報版權所有,轉載必究 隱私權政策 All Rights Reserved. ©2018 lvcnn.com Software ©2018 Las Vegas Chinese News Network Corp.