文/蘇元和
2022年,中研院對外公開一項研究假新聞的成果,由中研院資訊科學研究所研究員古倫維教授率其團隊以自然語言處理(NLP)、強化學習(Reinforcement learning)等AI技術,打造一個從使用者立場出發的研究方法,其實驗平台與技術可提高「真實新聞」傳播力,目標打擊假新聞的存在。
以下是專訪中研院資訊科學研究所研究員古倫維教授的重點摘要內容。
《全民查假會社》問(以下簡稱問):請問中研院研究的成果,如何做到打擊假新聞?又如何協助查證訊息與降低假新聞傳播力?
古倫維答(以下簡稱答):我們去年介紹這個平台,基本上,它不是一個查核的系統,它是一個從使用者立場去看問題的系統。它本身是去判別閱聽眾在網路閱讀的過程中,一旦接觸到假新聞之後,平台要在什麼樣的時間點,把澄清的新聞推播給閱聽眾,閱聽者才會願意閱讀。也就是說,網路平台並不是把所有的文章丟出來,讓大家看,他們就會想看,反之,有可能閱聽者已離開,或者已閱讀下一篇,我們需要找到最佳時機。
我們研究的重點是說,如果閱聽者看到某一篇假新聞,或他過去曾經看到過假新聞,因為有網路足跡,只要平台得知某一篇是假新聞之後,我們就可以從網路足跡,或是從一些設備ID(行動裝置的識別碼),去協助使用者之後在閱讀的過程中多去接觸真新聞。這樣的研究方法是比較站在使用者角度,也就是User friendly的方向出發。
問:這個實驗平台要蒐集很多真的新聞資訊(Data)?
答:這個平台之前研究時,包括假新聞跟真新聞兩種資訊Data都有。目前大家對假新聞的作法就是把它下架,但看到的人也已經接觸假新聞了,所以我們認為,假新聞被下架之後,當我們知道哪些人不小心接觸假新聞,且當閱聽者在平台上閱讀,又在某一個時間點再次接觸到這個「假新聞相關訊息」且對此「相關訊息」又有興趣的時候,就應該趕快把正確的資訊再推播給該使用者。
問:請問此實驗平台如何知道閱聽者、或使用者曾接觸過假訊息?
答:經由所有網路平台都有所記錄的閱聽眾網路足跡,只要足跡與曾被抓出來的假訊息重疊,就表示曾接觸過假訊息。目前有一些事實查核中心或者非營利組織都很認真地在做假新聞的澄清,但問題是這些澄清的新聞或訊息,它的觸及率並沒有假新聞觸及率高。
我們研究的重點是說,因為澄清的訊息觸及率太低了,加上查核員人力有限,又辛苦在進行查核,查核結果放在網站上又很少人看,加上非營利組織的網站上也不會有廣告,這些種種因素,導致查核結果的影響及傳播效果有限。
因此,我們研究認為,打擊假新聞需要多方、跨領域合作,未來透過整合這個實驗平台的推播機制,就可以把查核的澄清結果更有效地推播給閱聽眾與使用者。
從去年到現在,中研院都只是展示這個技術的能力,平台展示我們可以如何協助增加真新聞的觸及率與傳播力,這種作法相對地就是在降低假新聞的存在感。但是這個技術真的要落地,其實還是需要網路媒體平台跟查核組織兩邊的結合。
這個實驗平台原本僅是開放給研究人員使用,但我們研究的過程中發現,仍然存在許多需要優化的地方,我們還在持續努力。
問:請問從事多年研究打擊假新聞,目前困境與瓶頸是?
答:以前,大家都認為打擊假新聞是要做到可以偵測假新聞,且須做到偵測正確率非常高。但是偵測假新聞這件事情有其區域性的文化特性,比如說不同的地區會出現假新聞的樣態是不一樣的,在中國大陸出現的假新聞,都是一些跟政治沒關係的,因為不能有政治的假新聞;臺灣就有超多政治性的假新聞;新加坡又不一樣,假新聞很多是與社會政策方面有關。因此模型在不同國家的偵測效果就會很不一樣,比如說公開的測試可達到百分之九十,但隨著偵測環境改變,偵測正確率就會降低,效果就會不好。
另一方面,偵測如果依賴AI技術的話,AI偵測一定不會是百分之百正確,如果不正確的話,查核員還得再去查證。因此,偵測假新聞的能力牽涉層面太廣,包括地區性文化特性、言論自由、立場等,因此偵測假新聞是有一定程度的困難的。
但我的想法是,AI人工智慧不是我們的敵人,反之,我們可以把它當作是我們的朋友,換句話說,我們可以善用AI技術與工具,把「真新聞」寫得更動人與使它傳播得更快,這是我們研究團隊在平台之後已經發表的研究重點。目前我們看到假新聞的標題是很厲害、很有趣的,所以能吸引人閱讀。而我們的研究重點就是要使得「真新聞標題」透過AI技術寫得跟假新聞一樣,甚至更吸引人去閱讀。
總而言之,AI生成技術進步非常快,如果一直針對可生成什麼,就去防備它,那真的是沒有辦法解決「假新聞產業鏈」,因為技術一旦再次升級,之前做的偵測、辨識又都沒有用了,追趕不完。所以我是覺得概念上應該說,我們不要管那個壞人,我們不要管怎麼去打壞人,而是我們要把好人變得比壞人更厲害。
問:人工智能教父之稱(已辭Google職務)的傑佛里.辛頓(Geoffrey Hinton)已公開憂心AI發展與危險,「道高一尺、魔高一丈」全球掀起攻防AI深度偽造的挑戰不斷。請問你從事研究以來,未來該如何持續運用科技進步,協助並阻止或辨識不實訊息與影像?
答:我們一開始投入研究假新聞就沒有往偵測的方向走,一方面原因雖然偵測確實能協助從眾多資訊中,先篩選出有查核價值的訊息出來,至少可協助查核員初步從機率大的可疑訊息開始工作,但最後的驗證都還是要靠查核員。
而我們的研究則重視真新聞的曝光度及使用者的接受度,也就是協助「真實新聞」傳播更快、觸及率更高,而不是去「抑制假新聞」的傳播。偵測假新聞是一場追逐戰,這如同道高一尺、魔高一丈,一旦偵測之後,然後假模型又變得更厲害,然後我們研究又要再變得更厲害才能對抗,但之後他們又會變得更厲害。
現在大家在看這個假資訊問題的時候都是害怕生成式AI,害怕會生出很多假的,但我認為,我們應該把它當成是一個武器,或者是我們跟AI有很好的合作,也可以用生成式AI生成很多真實的資訊。事實上,假新聞不一定是AI生成機器人寫出來的,人也可以寫假的;另一方面,我們也可以讓機器寫一篇澄清新聞,我們下幾個重點,ChatGPT就可生成出一篇真實的文章。
另外,現在AI有一個很大的發展方向叫做跟大型模型協作,就是人跟模型一起工作,舉例,我們可以透過與AI的模型一整段討論與對話的過程,最後去訊問AI機器人關於「這是否是一個假新聞」的意見,就像我們跟專家討論一樣。
關鍵的三個素養
問:請問你認為網路時代與科技進步下,那些素養是公民最應該具備的面向?
答:我認為最重要就是要有所謂的AI SENSE(人工智慧的素養),第一點就是社會大眾如果從來沒有看過人工智慧生成的物件、沒看過生成的假新聞,那麼,你根本不知道那些是假的,所以,我鼓勵大家可以多接觸新工具、知道新工具在幹什麼,但不一定需要知道技術怎麼做。
第二點就是現在技術進步速度非常快,我們必須從「要學習什麼事情」快速走到「學習如何學習」,就是要學習怎麼樣去學習,才能把事情很快的學好。
第三點就是知道如何利用AI工具把事情做好。如果,具備以上三個能力就比較能夠面對,與因應科技進步時代的快速變化了。
延伸閱讀
更多古倫維教授研究頻道->Ku's Lab 古老師研究室