【專訪】李政德:教你四招分辨社群媒體假訊息

文/蘇元和

AI人工智慧快速發展,卻也引領深度偽造時代來臨,無論是假影片、假照片、假新聞、假訊息等,已成為國際間議論的焦點,更是民主國家面臨最困難的挑戰之一,因此具備AI數位識讀能力極為重要,民眾該如何從網路世界的大量資訊中辨識出真偽?又該如何提升公民識讀能力?

以下是專訪專攻機器學習、社群網路分析的成功大學資訊工程學系教授李政德的摘要內容。

《全民查假會社》問(以下簡稱問):AI深度偽造可偽造假影片、影像之外,請問AI深度偽造的假訊息或假資訊的樣貌有哪些?有無其辨識技巧?

李政德答(以下簡稱答):首先,當我們觀察到某一訊息在短時間內被多個帳號或粉絲頁重複發布,且內容相似時,就有可能是某「工廠」製造的假消息。這類「工廠」可能利用分身帳號或僱傭真實使用者,甚至創建假帳號來大量散播訊息。而由於他們的策略多為量產,因此內容多半雷同,缺乏多元性。

再者,當我們在社群塗鴉牆上突然見到多數人或粉絲頁談論相同議題,且風向一致時,就該警覺這訊息的真實性。此外,我們還可以從帳號特性判斷:這是一般真實使用者還是機器人,這個粉絲頁背後是不是有組織化的團隊經營。

最後一點就是時間點也是一大指標。如果某訊息的轉推者幾乎都在相近的時間點轉發,且內容相似,那麼這訊息可疑度極高。同時,真實的新聞或事件通常會引發多元的討論,但若回應都過於一致,或僅是簡單的按讚、分享,那就可能是洗假訊息聲量的操作。

總之,我們可以從四個面向:帳號背景、特性、評論內容及傳播的時間點評估訊息的真偽。

然而,最新的研究揭露了一種更為高明的假訊息生成與傳播策略:惡意的第三方可利用ChatGPT技術來生成假訊息。他們不再需要大量的人手,而是直接將ChatGPT與Twitter的自動發文功能結合,且迅速、自動化地在平台上散播假訊息。更甚者,利用ChatGPT創建假帳號並模擬真實的互動,製造出高度熱議的假象。這樣的操作使得偵測假消息的準確率大幅下降,讓真偽之間的界線愈加模糊。

問:ChatGPT可無限制的生成各種不同的假訊息,未來如何去辨識真偽?

答:最近的研究指出,ChatGPT雖然功能強大,但確實有其限制。當所生成的文字涉及暴力、情色或與人類道德有關的議題時,它會自動響應說:「我是AI,無法生成可能破壞社會和諧的訊息。」

由於ChatGPT的回應模式是自動化的,我們可以根據這個特定的回應在Twitter上追蹤,從而識別出哪些帳號可能使用了ChatGPT來生成內容。這一發現為我們提供了新的思考角度,特別是在政治相關的討論中,多年來網軍透過多種手法引導輿論,而影響群眾意識形態。

問:據你曾表示,選舉期間,有關政治類的假新聞占所有假訊息中近三分之一。請問2024總統大選前,網路是否已出現輿論操弄與假新聞?他們如何成形的?

答:我想應該是不限這個總統大選,尤其是政治議題相關的討論,很多平臺上可能有所謂的網軍帶風向,這是最簡單操弄群眾輿論的做法。

探討輿論風向的形成與其背後的動機至關重要。誰會受益、什麼是其最終目的,可能就是這些網軍或是集體風向文背後的推手所追求的。不論是在PTT、社群媒體或是透過假帳號,這些手法一直都是被廣泛討論的焦點。

問:承上,這些假訊息生成的方式都透過ChatGPT?

答:2023年以前,人們較少使用ChatGPT,因為它是在去年底才問世。但隨著科技的發展,大家需增強警覺:未來的假訊息或輿論引導內容將可能更具說服力,因為有了ChatGPT的助力。

以往,要炮製一條假訊息,或許需要一家擁有上百帳號的網軍公司,背後有大批工讀生撰寫和發布內容。但如今,這些繁瑣的過程都能被ChatGPT自動完成。

從假訊息的角度來看,過去由於人力有限,生成的內容往往相似度高。但現在,有了ChatGPT的幫助,文本內容的多樣性得到提升,這使得辨識網軍的難度增加。線上使用者在與這些貼文互動時,會覺得更像是與真人對話,使得這些帶風向的貼文更像真實新聞的討論。

問:請問有方法去辨識更真實的假訊息?

答:有些偵測手法相對簡單。例如,由於ChatGPT不會生成違反道德的內容,這成為我們識別的一個明確依據。但情況會變得複雜,當ChatGPT被賦予某一特定角色,比如「政治評論員」,並受到指示從某一政治陣營或立場來進行討論,無論是正面或反面。事實上,使用者可以指定給ChatGPT的討論方向、陣營、語氣甚至情緒,使其生成的內容多變且富有情感,因此更趨近於人類的文字表述,進而增加了識別其為假訊息的難度。

另外,我們還可藉由分析帳號資訊來識別這些似是而非的假訊息。至於此方法的實際效果如何,目前尚待確認。國外對此已開始進行初步的研究,而國內若想深入探討,則需要大量的數據資料作為研究基礎。

問:AI人工智慧攻防發展至今,如何創造安全的社群媒體環境,降低不實訊息的傳播力?

答:要打造一個安全的社群環境,應從多角度著手。首先,對於社群媒體如IG、Twitter、Facebook、Line等,這些服務提供者可以做的是:第一,清除虛偽的機器人帳號。第二,對涉及暴力或真實性低的內容,提供明確警示,這應該經由人際互動專家參與,確保使用者體驗不受太大影響。第三,提供更多元的資訊,因為這些社群平臺擁有大量的數據資料,它們可以指出哪些議題具有爭議性,對於這些議題,當使用者閱讀某篇貼文時,平臺可以推薦正反雙方的觀點,避免使用者僅受到推薦演算法的單一影響。

對於使用者端來講,重要的是提高使用者對於訊息真偽的識別意識,使用者必須明白,每一個社群帳號或粉絲頁背後都有真人操作,可能存在假訊息的生成。知道這一點後,我們才能培養使用者對訊息的批判性。

不止要擔心人為製造的假訊息,AI生成的假訊息也日益成為威脅。使用者應透過科普或實際案例了解,AI同時是利器與隱憂。只有當使用者真正明白AI的能與不能,他們才會持懷疑態度,判斷訊息是否由AI所產出。

此外,我們不僅要抑制假訊息的傳播力,更應提高真實新聞的曝光程度。假訊息往往利用聳動標題吸引人目光,例如「某名人又怎麼樣了」。未來,新聞從業者或撰寫者可使用AI工具,幫助製作吸引人的、但真實的標題,增加真實訊息的傳播力、提高其曝光程度。

最後,技術雖然能實現很多事情,如使用AI鑑別假訊息或生成吸引人的真實新聞標題,但從國內外的研究來看,AI的真正效用仍有待觀察。人類如何信賴及使用AI,將會是未來透過AI打造可信任社群媒體的一大議題。

熱門推薦