本網站使用相關技術提供更好的閱讀體驗,同時尊重使用者隱私,點這裡瞭解中央社隱私聲明當您關閉此視窗,代表您同意上述規範。
Your browser does not appear to support Traditional Chinese. Would you like to go to CNA’s English website, “Focus Taiwan”?
こちらのページは繁体字版です。日本語版「フォーカス台湾」に移動しますか。
中央社一手新聞APP Icon中央社一手新聞APP
下載

AI語音以假亂真 美新型詐騙讓人防不勝防

2023/6/12 14:50(6/12 15:39 更新)
請同意我們的隱私權規範,才能啟用聽新聞的功能。
法新社報導,美國出現新型詐騙,歹徒使用網路上垂手可得、幾可亂真的AI語音複製工具,假冒家庭成員來詐騙親人。(示意圖/圖取自Unsplash圖庫)
法新社報導,美國出現新型詐騙,歹徒使用網路上垂手可得、幾可亂真的AI語音複製工具,假冒家庭成員來詐騙親人。(示意圖/圖取自Unsplash圖庫)
請同意我們的隱私權規範,才能啟用聽新聞的功能。

(中央社華盛頓11日綜合外電報導)電話那頭的聲音聽來跟真的沒兩樣,美國一名母親聽到「女兒」啜泣求救,之後一名男子接過電話,要求支付贖金。

但其實女孩的聲音來自人工智慧(AI)合成,綁架當然也是假的。

法新社報導,專家表示,AI最大的危險是模糊了真實和虛幻的界線,讓網路罪犯能有廉價又有效的技術來散播假訊息。

新型詐騙震撼美國當局,歹徒使用網路上垂手可得、幾可亂真的AI語音複製工具,假冒家庭成員來詐騙親人。

住在亞利桑那州的迪斯特法諾(Jennifer DeStefano)聽到電話那頭傳來:「救我,媽,救我。」

迪斯特法諾「100%」確定那是她15歲的女兒在滑雪時陷入麻煩。

迪斯特法諾4月告訴當地電視台:「問題不是那是誰,那就是她的聲音…她哭起來就是那樣。」

在美國等9個國家針對7000人的民調中,1/4表示自己遇過AI語音詐騙,或聽過別人有類似經驗。

這份由美國資安公司邁克菲實驗室(McAfee Labs)上月發布的民調顯示,70%受訪者表示,沒有信心能「分辨真假語音」。

加州大學柏克萊分校資訊學院教授法瑞德(Hany Farid)告訴法新社:「因為現在製作高仿真的語音非常容易…網路上幾乎無人能倖免。這些詐騙正廣為流行。」

今年初AI新創公司ElevenLabs坦承自家語音合成工具可被用於「惡意用途」,先前就有用戶發布透過「深偽技術」(Deepfake)合成的語音,假冒英國女星艾瑪華森(Emma Watson)讀希特勒自傳「我的奮鬥」(Mein Kampf)。(譯者:鄭詩韻/核稿:陳昱婷)1120612

中央社「一手新聞」 app
iOS App下載Android App下載

本網站之文字、圖片及影音,非經授權,不得轉載、公開播送或公開傳輸及利用。

請繼續下滑閱讀
172.30.142.62