45% AI新聞回答錯誤率驚人!全球最大研究揭四大助理嚴重誤導風險,公共信任面臨崩盤

45% AI新聞回答錯誤率驚人!全球最大研究揭四大助理嚴重誤導風險,公共信任面臨崩盤

近期針對人工智能助理(AI assistants)在新聞內容上的表現進行了一項前所未有的大型國際研究,結果顯示這些AI系統在新聞資訊的準確性和可信度方面存在嚴重問題,對公共信任構成重大威脅。該研究由歐洲廣播聯盟(EBU)協調,並由英國廣播公司(BBC)領導,涵蓋了18個國家、4種語言,檢視了超過3,000個由四大AI助理生成的新聞回答,包括ChatGPT、Copilot、Gemini與Perplexity,結果令人擔憂。

根據這項2025年最新的《News Integrity in AI Assistants》研究顯示,這些AI系統提供的新聞回答中,約有45%存在準確性問題,31%在來源標示上有瑕疵,甚至有高達20%的答案被評為完全不可靠。研究專家指出,不僅部分回答出現錯誤,甚至有些AI助理會錯誤引導用戶,提供扭曲或誤導性的資訊,這種系統性且跨語言、跨國界的問題,正威脅著公眾對新聞媒體的信任。EBU媒體總監Jean Philip De Tender強調,當公眾因無法辨別何者可信而對資訊失去信心時,民主參與勢必受到影響。

此次研究的特點在於其規模和嚴謹性,涵蓋了來自22家公共服務媒體(PSM)機構,採用14種語言,並由專業新聞工作者根據準確度、來源透明度、意見與事實的區分以及提供的背景說明等關鍵標準,評估了AI助理的表現。研究結果一致指出,無論是以英文、法文、德文或西班牙文進行提問,AI助理在新聞處理上的缺陷並非語言問題,而是根植於目前AI架構的系統性問題。

調查同時揭露,資訊搜尋是生成式AI最主要的用途(約24%的用戶每週使用),而專門用於新聞消費的比例相對較低(約6%),顯示目前AI在新聞領域的應用仍屬於較為特殊和有限的範疇。儘管如此,AI助理在新聞領域所引發的誤導風險並未隨使用頻率降低而減輕。另一項由BBC在2025年2月進行的研究亦發現,針對BBC獨家新聞提問的AI回答中,有51%存在重大問題,顯示新聞不準確的現象相當普遍。

基於這些結果,EBU與BBC呼籲科技公司、監管機構及新聞媒體共同合作,制定更嚴格的標準來監管AI生成新聞內容。該研究提出多項建議措施,包括:提升AI回答中來源的透明度、優化訓練資料以減少錯誤訊息、明確標示AI生成的內容,以及建立獨立機構持續審核AI工具的機制,以保障新聞資訊的真實性和公信力。

整體來說,這份報告警示公眾,現階段AI助理無法成為可靠的新聞資訊來源。隨著科技不斷進步與AI生成內容的普及,如何確保新聞內容的完整性與真實性,並維繫社會民主的參與度,成為各界亟需面對的挑戰。對於香港及台灣的讀者而言,這意味著在使用AI工具輔助新聞消費時,必須保持高度警覺,並注意新聞的來源與背景資訊,避免被誤導。

#AI新聞 #資訊可信度 #EBU研究 #BBC調查 #生成式AI

追蹤以下平台,獲得最新AI資訊:
Facebook: https://www.facebook.com/drjackeiwong/
Instagram: https://www.instagram.com/drjackeiwong/
Threads: https://www.threads.net/@drjackeiwong/
YouTube: https://www.youtube.com/@drjackeiwong/
Website: https://drjackeiwong.com/

Dr. Jackei Wong

擁有超過15年的人工智能研究及教學經驗,我結合學術理論與實際應用,設計專業的AI學習體驗。無論是生成式AI、數據分析,還是日常工作的AI應用,我都會以簡單易懂的方式引導您深入了解,讓您快速上手技術,應對數碼化時代的挑戰。

喜歡請分享