媒體識讀34 / 接陌生電話別出聲避AI搜集?查核中心:人聲不易模擬無須太防備
2024/4/17 09:50(4/17 20:39 更新)
如何辨別資訊真偽、可信度,同時評量報導立場與脈絡,已成為當代閱聽人及媒體最重大挑戰。中央社「媒體識讀」新聞分類,集結事實查核與媒體素養相關新聞,期待以媒體角色為提供正確資訊盡一分心力。
(中央社記者王心妤台北17日電)AI科技日異月新,網傳接到陌生電話應該要不出聲音掛掉電話,否則會被AI搜集聲音,台灣事實查核中心訪問資安專家後表示,靠電話聲音模擬出的人聲容易失真,民眾不須過度防備。
近期社群軟體Line上流傳一段訊息,提醒民眾接到電話不要先講話,若對方不出聲就直接掛掉,否則AI技術恐會搜集聲音。
台灣事實查核中心表示,國立成功大學統計學系副教授許志仲指出,電話聲音容易失真,若只有1、2句問候語難以做出品質佳的AI聲音,現在或許有詐騙集團利用AI模擬家人聲音借錢等案例,但比起其他手法仍是少數。
資安專家、Whoscall資深產品策略協理劉彥伯表示,傳言立意良善但過於誇張,AI現在的確能模擬人聲,但必須在5至10秒內連續說話並有抑揚頓挫,AI才能有效學習,但民眾若覺得電話可疑或疑似詐騙電話應直接掛掉,不要繼續對話。
資安與AI專家都認為,民眾不須過度防備,也不需要接起電話先不出聲,或是民眾也可以在親友間建立「通話密語」,若不確定對方身分就能多重認證。(編輯:李錫璋)1130417
原文來自「台灣事實查核中心」:https://tfc-taiwan.org.tw/articles/10481
- 2024/12/05 16:10
- 2024/05/13 11:34
- 2024/04/25 20:40
- 接陌生電話別出聲避AI搜集?查核中心:人聲不易模擬無須太防備2024/04/17 09:50
- 2024/04/11 10:51
- 2024/04/09 18:56
本網站之文字、圖片及影音,非經授權,不得轉載、公開播送或公開傳輸及利用。
請繼續下滑閱讀
媒體識讀35 / 戰爭稅擴大成疑美論 RFA:中國對台發動假訊息手法