文/翁靖祐(全民查假會社查核記者)
隨著 AI 的不斷演進,許多內容的創作更為便利,尤其生成式 AI 除了文字的產出,還能在聲音與影像上進行協助。然而,AI 帶來便利的同時,卻也衍生出相應的問題,在 AI 的輔助下,假訊息不僅更難以分辨,甚至演變出了新型的犯罪模式。
因應真假難辨的 AI 假訊息,《全民查假會社》攜手二十一世紀基金會、中華傳播管理學會,舉辦「假訊息・真AI!」年度論壇,聚集產官學專家,針對 AI 所造成的資訊危機進行分享與交流。
▲ 圓桌論壇邀請《泛科學》總監王喆宣(左起)、中研院研究員王新民、文大新聞系教授莊伯仲、數發部次長林宜敬、勤業眾信副總簡宏偉,以及華視新聞台長蔡莞瑩共同分享。
第四場的圓桌論壇,與談人包括數位發展部政務次長林宜敬、勤業眾信資深執行副總簡宏偉、華視新聞資訊台台長蔡莞瑩、中研院資訊科學研究所研究員王新民、《泛科學》總監王喆宣,並由文化大學新聞系教授莊伯仲主持,與聽眾共同商討 AI 假訊息的防治之道。
AI假訊息難題怎解?各界專家一致認為須仰賴專業新聞機構
「要對抗 AI 所造成的假訊息以前,需要先了解錯誤訊息(misinformation)跟虛假訊息(disinformation)的差別」,數發部次長林宜敬解釋,前者是並非有意的誤植、傳散,後者是人為的刻意性誤導。「我們要對抗的,是屬於後者的錯假資訊」。
林宜敬說,依據目前的經驗來看,針對 AI 假訊息的防治措施包括:用 AI 工具進行反制,但目前成效有限;以及在生產內容中嵌入「浮水印」,讓 AI 內容能夠自帶辨識功能,不過面對惡意人士仍束手無策;最後,則是仰賴傳統新聞專業的查核(fact check),並建立起民眾心目中的「新聞白名單」,讓民眾知道哪些媒體是可以信賴的。
▲ 林宜敬表示,AI 假訊息的防治在現階段有多種辦法,但其各自有優缺點。
華視新聞台台長蔡莞瑩認為,在AI假訊息猖獗的時代,傳統新聞媒體的訊息反而較具有可信度。她舉例,像是 TVBS、華視、《中央社》、《聯合報》等具規模的傳統媒體,在產出內容過程中,會透過大量的人力、資源進行查證,「雖然實務並非 100% 完全正確,但相較於網傳訊息,可信度會更高。」
勤業眾信資深副總簡宏偉曾在公部門任職,在產業、官方經歷豐富。他認為,可試著從法規、教育面著手,並以短、中、長三階段進行規劃。現階段可倚賴查核組織,進行網傳謠言的查證;中期則可透過法律進行規範,並以歐盟的《人工智慧法案》為藍本;長期則需要培養民眾對假訊息的意識與認知,增加媒體素養能力。
▲ 簡宏偉指出,歐盟的《人工智慧法案》也可以讓台灣作為借鏡。
AI新時代的轉變:新科技帶來的危機與轉機
中研院研究員王新民表示,在他過去研究的成果中發現,專業訓練下的 AI 模型,有機會成為反制假訊息的工具。他舉例,經過充分訓練的 AI,在分辨 AI 生成的語音、影像時,「成功率高達 99%,是一個準確度極高的模型」。
▲ 王新民分享 AI 模型的實驗模式,或許也能作為抵禦假訊息的方式之一。
但他也強調,隨著科技演進,未來必定會出現更精湛的造假技術。因此,用來辨識假訊息的 AI 模型,也必須與時俱進,才能夠發揮作用。
從教育著手是一個好點子,因此了解平台的運作機制也相當重要。
《泛科學》總監王喆宣認為,了解社群平台的演算法至關重要,因為它可以掌握我們會「接收」到哪些訊息,尤其現代網路使用者的資訊接收來源,幾乎都是來自於社群網路。因此,關於演算法的素養也不容忽視——「唯有如此,我們才能了解到,特定假訊息能在社群上快速傳佈的原因。」
▲ 王喆宣點出「演算法」也是關鍵。
簡宏偉也指出,在推崇 AI 學習的時代之下,數位的「基礎科學」其實也相當重要——無非就是演算法與數學。不過他也認為,大眾對於生成式 AI 有些過度美化,他提醒,「AI 是一把雙面刃,取決於人們如何使用」,因此,如何透過 AI 來防治 AI,會是未來關注的焦點。
蔡莞瑩補充,「演算法」也是當代媒體工作者,最重視的中介者,並以此得知觀眾的愛好。
「針對假訊息的防範,傳統媒體需要思考的,是如何透過演算法建立觀眾的忠誠度,減少錯誤資訊被接收的機會」。蔡莞瑩透露,預計明(2025)年華視就會引用演算法帶動的個人化優勢,建立「個人專屬新聞台」,讓觀眾更容易選擇到他想要觀看的新聞。
▲ AI 不會只造成危害,蔡莞瑩透露,明年傳統媒體將跟 AI 展開協作。
林宜敬解釋,往後 AI 的計算模型,會開始取代演算法,他以目前採用 AI 進行觀察與計算的 Tiktok 為例,不僅容易推送「假訊息」,甚至會形成越發堅固的同溫層(echo chamber)。他更補充,在不久的將來,AI 的訊息戰役將會升級成「產業間的對抗」;他也再次強調「白名單」策略的重要性——如此才能幫助大眾明白,哪些訊息值得信任。