本網站使用相關技術提供更好的閱讀體驗,同時尊重使用者隱私,點這裡瞭解中央社隱私聲明當您關閉此視窗,代表您同意上述規範。
Your browser does not appear to support Traditional Chinese. Would you like to go to CNA’s English website, “Focus Taiwan”?
こちらのページは繁体字版です。日本語版「フォーカス台湾」に移動しますか。
中央社一手新聞APP Icon中央社一手新聞APP
下載

媒體識讀33 / 接陌生電話別出聲避AI搜集?查核中心:人聲不易模擬無須太防備

2024/4/17 09:50(4/17 20:39 更新)
請同意我們的隱私權規範,才能啟用聽新聞的功能。
示意圖。(圖取自Pixabay圖庫)
示意圖。(圖取自Pixabay圖庫)

如何辨別資訊真偽、可信度,同時評量報導立場與脈絡,已成為當代閱聽人及媒體最重大挑戰。中央社「媒體識讀」新聞分類,集結事實查核與媒體素養相關新聞,期待以媒體角色為提供正確資訊盡一分心力。

請同意我們的隱私權規範,才能啟用聽新聞的功能。

(中央社記者王心妤台北17日電)AI科技日異月新,網傳接到陌生電話應該要不出聲音掛掉電話,否則會被AI搜集聲音,台灣事實查核中心訪問資安專家後表示,靠電話聲音模擬出的人聲容易失真,民眾不須過度防備。

近期社群軟體Line上流傳一段訊息,提醒民眾接到電話不要先講話,若對方不出聲就直接掛掉,否則AI技術恐會搜集聲音。

台灣事實查核中心表示,國立成功大學統計學系副教授許志仲指出,電話聲音容易失真,若只有1、2句問候語難以做出品質佳的AI聲音,現在或許有詐騙集團利用AI模擬家人聲音借錢等案例,但比起其他手法仍是少數。

資安專家、Whoscall資深產品策略協理劉彥伯表示,傳言立意良善但過於誇張,AI現在的確能模擬人聲,但必須在5至10秒內連續說話並有抑揚頓挫,AI才能有效學習,但民眾若覺得電話可疑或疑似詐騙電話應直接掛掉,不要繼續對話。

資安與AI專家都認為,民眾不須過度防備,也不需要接起電話先不出聲,或是民眾也可以在親友間建立「通話密語」,若不確定對方身分就能多重認證。(編輯:李錫璋)1130417

原文來自「台灣事實查核中心」:https://tfc-taiwan.org.tw/articles/10481

中央社「一手新聞」 app
iOS App下載Android App下載

本網站之文字、圖片及影音,非經授權,不得轉載、公開播送或公開傳輸及利用。

請繼續下滑閱讀
媒體識讀34 / 戰爭稅擴大成疑美論 RFA:中國對台發動假訊息手法
172.30.142.73