「網傳:接電話千萬別先開口!只需3秒就可能成AI語音詐騙目標。」部分真實

爭議事件:接電話千萬別先開口!只需3秒 就可能成AI語音詐騙目標
傳播時間:3月26日
消息來源: 真的假的Cofacts網友回報可疑訊息 

爭議內容:
2023-3-22世界日報新聞
如果你接聽一個陌生號碼的電話,一定要讓對方先說。電話另一端的人可能會錄下你的聲音片段,然後用它來模仿你。
這是美國聯邦貿易委員會(Federal Trade Commission)給大家的建議,該委員會警告消費者要當心騙子,這些騙子會偷偷錄下人們的聲音,然後偽裝成受害者的聲音,向受害者的親屬要錢…

爭議一:真的有語音複製技術嗎?
爭議二:只需3秒 就可能成AI語音詐騙目標?
爭議三:此為世界日報的報導?
 

重點摘要說明:
1、確實有語音複製技術,美國聯邦貿易委員會也為此發布消費者警示。
2、微軟研發的VALL-E號稱僅需三秒長的樣本就能準確模擬任何人的聲音,但並未開放公眾使用。
3、國際上尚未出現3秒複製人聲的相關詐騙案例,因此「接電話千萬別先開口!只需3秒 就可能成AI語音詐騙目標」是誇大誤導。

爭議一:真的有語音複製技術嗎?
事實:AI語音複製是根據所需要複製聲音的人的語音樣本創建數據,這需要閱讀數十或數百個句子才能獲得高質量的樣本,最後得以生成看似完美匹配的聲音。不僅如此,單詞還可以根據上下文和情感調整聲音,重新排列成不同的句子,讓人在短時間內無法發覺。
經查核,世界上最早一起語音複製詐騙案是在2019年,根據《華爾街日報》報導,一家未具名的英國能源公司首席執行官,當時他相信他正在與老闆通電話,於是就遵照老闆命令,將二十四萬美元匯入一家匈牙利供應商的銀行賬戶。但事實上,該聲音是詐欺犯利用AI語音技術所複製而成。隨著科技越來越發達,語言複製的詐騙案例有上升的趨勢,美國聯邦貿易委員會FTC發布了消費者警示,指人工智能不再是科幻電影中遙不可及的想法,當詐騙者給您打電話時,聽起來就像您所愛的人一樣。並提醒民眾「不要相信聲音」,打電話給應該與您聯繫的人並核實故事。如果來電者說要匯款、發送加密貨幣或購買禮品卡並給他們卡號和PIN碼,要求您以難以取回款項的方式付款或匯款,這些都可能是詐騙的跡象。

爭議二:只需3秒 就可能成AI語音詐騙目標?
事實:AI語音複製技術需要足夠的樣本才有辦法複製聲音,因此它需要一定的時間搜集聲音,在兩年前加拿大公司Resemble AI表示,要生成一個高質量的人聲副本,軟件需要某個人說話的錄音,時間至少10分鐘。

不過根據《遠見雜誌》報導,數位鑑識學教授法理德(Hany Farid)表示,現在只要簡短30秒的聲音,就能夠捕捉出聲音中的特徵,包含年齡、性別、口音等。「現在如果在抖音上傳一支30秒的影片,人們就可以複製你的聲音。」但在2023年初,微軟的研究人員發表一篇關於名為 VALL-E 的新型人工智能的論文,該人工智能可以根據僅三秒長的樣本準確模擬任何人的聲音。但是創建 VALL-E 的團隊知道此項技術容易被利用於犯罪,因此並沒有公開 VALL-E 的代碼,也未開放公眾使用,他們也開發出能夠偵測出是否為人工合成語音的模型,避免先進技術被拿來犯罪,並發表一份道德聲明。因此「只需3秒就可能成AI語音詐騙目標」的說法錯誤,因為目前VALL-E並未對外公開。

爭議三:此為《世界日報》的報導?
事實:查核員到《世界日報》新聞網查詢「接電話千萬別先開口!只需3秒 就可能成AI語音詐騙目標」,但卻顯示0筆資料。

後來又發現內文為美國CBS “Cybercriminals are using AI voice cloning tools to dupe victims”的翻譯文章,正確的標題翻譯應為「網路犯罪者利用人工智能語音複製工具來欺騙受害者」,但卻被改成「接電話千萬別先開口!只需3秒 就可能成AI語音詐騙目標」;儘管內文翻譯CBS報導正確,但是目前能3秒複製人聲的微軟VALL-E並無對外開放,國際上也尚未出現3秒複製人聲的相關詐騙案例,國內更未傳出語音複製的詐騙案例,標題顯有誇大誤導,並可能引起恐慌。

而《世界日報》是否真有「接電話千萬別先開口!只需3秒 就可能成AI語音詐騙目標」的報導目前無法得知。

結論:
經查,該文章內容為美國CBS “Cybercriminals are using AI voice cloning tools to dupe victims”的翻譯文章,正確的標題翻譯應為「網路犯罪者利用人工智能語音複製工具來欺騙受害者」,但卻被改成「接電話千萬別先開口!只需3秒 就可能成AI語音詐騙目標」。儘管內文正確,但目前能3秒複製人聲的微軟VALL-E並無對外開放,國際上也尚未出現3秒複製人聲的相關詐騙案例,標題顯有誇大誤導。

資料來源

https://www.cbsnews.com/philadelphia/news/ai-scam-voice-cloning-rising-ftc/
https://www.wsj.com/articles/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime-case-11567157402https://www.bbc.com/zhongwen/trad/world-57802827
https://consumer.ftc.gov/consumer-alerts/2023/03/scammers-use-ai-enhance-their-family-emergency-schemes
https://valle-demo.github.io/
https://udn.com/news/story/7086/6904127
https://www.worldjournal.com/wj/index
 

熱門推薦