文/蘇元和
隨著人工智慧(Artificial Intelligence)技術越來越強大,機器學習能力日益突破,引領深度偽造(Deepfake)時代來臨,然而,無論是假圖(影)片、假新聞、假資訊等,已成為政治宣傳的工具武器,不只危害民主社會的公民,甚至對國家的民主發展產生負面衝擊。
因此,公民應具備AI人工智慧識讀能力成為重中之重,那麼,社會大眾與閱聽者究竟該如何提升媒體的識讀能力?
中正大學資工系教授王銘宏與團隊整合統計學習、圖論、電腦視覺和其它電腦科學方法,長年投入研究大型社群媒體平台的資訊傳播和操作,包括不實訊息(謠言)演化研究、網路分身帳號、輿論操作等面向。以下是專訪王銘宏教授的重點摘要內容。
《全民查假會社》問(以下簡稱問):全球關注2024年散播假訊息的政治運動可能大幅增強,包括美國、英國、印度、台灣等國都有大選活動,請問是否觀察到大型語言模型或AI生成文章或圖片、影像,已悄然影響著選民行為?
王銘宏答(以下簡稱答):這些假訊息或假影像是不是有影響選民的行為,可能還須要有實證的研究。但確實已有觀察不少生成內容運用大型語言模型,或由AI製造文章、或生成影像,這些出現在YouTube的影片上,包括自動做配音、依照一定的內容產生假主播,去製造大量的宣傳影片,所以不管是利用AI技術,或生成式AI的ChatGPT,這些工具都已使得生成的假內容變得效率高,且成本更低。
問:截至目前無法實際證明生成式的假影片、或假訊息介入與影響到選民行為,但是否已有可觀的相關「政治選舉」面的不實內容在流傳了?
答:從外部觀察,我們確實看到生成式的假訊息比過去頻繁出現,至於它的量多少,這個可能還須要更長期的觀察、驗證、收集才會比較清楚。
問:請問不管是哪一種生成式的AI假訊息包括ChatGPT,哪一年開始大量流傳假訊息出來?
答:ChatGPT生成文字內容技術是從去年底開始廣泛應用,但較常出現應該是從今年(2023年)開始的,主因是大家開始熟悉它的技術與能力,可以生成到哪個地步、做哪些事;第二是今年適逢接近選舉(2024年總統大選),因此變成大量運用這個技術生成內容,也就是說從今年開始,可能有許多社群媒體上的不實內容是由生成模型而製造的。
我進一步補充,雖然過去就有一些語言模型,可以產製不實訊息,但產製內容可能效率不高、或做得沒那麼好。但是,現在語言模型已可以做到依照個人的需求,且不需要人力介入,就能生成一樣水準的東西,所以兩種生成的能力是不一樣。總結來說,並不是說過去沒有文字類的生成技術,而是說如今的語言模型產製文字的水準又比過去高,且效率又更好。
另一方面,若是深度偽造的Deepfake影片就不是最近幾年才開始有的,Deepfake深度偽造的影片流傳已有三年以上的歷史了。
問:請問如何定義刻意帶風向,製造不實訊息的「網軍」?
答:基本上我現在不會使用「網軍」的字眼,我們會使用另外一個更具體名稱叫「分身帳號」。
定義上,分身帳號就是一大群帳號是由少數的幾個人,或是團體控制,他們試圖在網路上,你要說帶風向也可以,或是去製造、去宣傳特定立場的言論。至於他們是不是有製造假訊息,我覺得是另外一個層次的事情。
換句話說,分身帳號可宣傳現有的事情,比如說,他可宣傳某個特定候選人的政見,這是可行的。但另外一種層次的分身帳號,他就是用來打擊敵人的,這時候就會透過捕風捉影、或不實訊息的方式,攻擊對手。
整體來講,我們先不論內容真假,當背後可能來自於特定幾個人或是團體控制的大量帳號,這就是違反我們在網路上面的民主原則,因為我們認為民主原則應該是每個人能公平的交換意見,然後透明接收意見的權利。但如果一個人就可以控制幾百組、幾千組帳號,平臺方如果不處理這樣的問題,可能就會讓使用者造成困擾。
靠三招!辨識可疑分身帳號
問:請問是否只能靠專家才能分辨出分身帳號?其辨識方法?
答:我認為不是只有專家或電腦專業人員才有能力去分辨,但從我的角色與立場來看,是希望由電腦去自動化分辨。
首先,最簡單的辨別分身帳號的方法就是觀察IP位置,是否有多個帳號共用同一個IP,但也不能說用同一個IP使用的帳號就一定是分身帳號;第二就要搭配行為模式等特徵來加以辨識,包括這些帳號所發表的言論立場、是否非常活躍、是否固定轉特定新聞;再者,可去觀察背後的IP是否來自一些特殊設備。
我舉一個案例,一般上網我們都會用電腦上網、手機上網、iPad上網,這是沒有問題的,但如果你今天發現一個帳號IP是來自於一個網路攝影機,這就是一個不太合理的狀況,我們就從這些IP背後的設備來判斷,是不是此IP只是一個跳板。
總結來說,以上方法可以協助判斷是否有網路攻擊實力的團體在背後操作。而這些方法事實上可以用電腦自動化進行判斷,但若沒有這些資訊或技術,一般民眾確實不容易辨識。
三步驟!民眾也能分辨分身帳號
問:請問一般民眾有最簡易的識讀方法?
答:我覺得網路是一個有趣的世界,首先,一般民眾可去觀察特定帳號是否會不斷、連續的出現,比如說一個轉貼機器人帳號是很容易看出來的;第二,進一步從行為模式來看,此帳號不會去跟人家互動,他只負責轉貼文章,且會固定轉貼,如果程式寫得比較固定,可能只有整點才會轉貼訊息,從這些固定行為模式可協助辨識是否為分身帳號;第三,這些特徵都可從帳號的動態消息去觀察,若與上述的行為模式一樣,分身帳號的可能性就會提高。總之,分身帳號的行為模式不像我們一般的使用者的行為模式。
以前,我們還發現它的規則,但現在不一定全部適用,就是這些分身帳號有共同的特徵就是不會有真人的頭像,或是他的頭像就是讓你看不到正臉、或是看不清楚他的生物特徵。
隨著AI生成假照片日益普及化,用帳號的人頭照來辨識是否為分身帳號,恐怕不是一個好方法,因為照片可以深度偽造出來了。至於用名人假照片,基本上這是比較常被用來做詐騙個資或金錢的方式。
總結來說,我覺得一般民眾真的不容易判斷分身帳號,比如說有些帳號確實來自一群熱愛在網路上發言的人,但並不能簡易地去界定這樣的人就是所謂的分身帳號,因為這樣的證據力其實仍是不足的。所以我還是要強調,未來需要多重技術發展,才能做驗證,才能去做這樣的調查,因為這都要有十足的科學的基礎。
問:請問國內外有沒有政治團體運用這些技術去降低分身帳號(網軍)攻擊,進而減少不實訊息散播?
答:依據我的了解,不管是美國,歐洲或是臺灣,都有相關的研究。
然而,從另一個角度來探討,即便運用類似技術去抓分身身帳號,大部份都不會公開細節,所以無從回答您的問題。但是各國的許多研究機構都很願意投入經費加強這方面技術的研究,或是應用。