AI深偽技術假扮名人 刑事局公布3手法防投資詐騙
(中央社記者劉建邦台北13日電)刑事局今天表示,人工智慧(AI)技術興起,近期常見歹徒以AI的深偽技術假扮投資名人詐騙,手法包含假冒名人影片、假冒名人通話、假冒名人廣告,呼籲民眾注意,以免財損。
刑事局發布新聞資料指出,深偽技術(Deepfake)是利用AI生成虛假影像或聲音的技術,能逼真模仿特定人物外貌和聲音。詐騙集團利用此技術,製作假冒投資名人影片在網路發布詐騙廣告,誘騙民眾投資。
警方表示,被害民眾後續投入較多金額,詐騙集團就以各種理由拒出金,導致被害人財產遇龐大損失。
刑事局分析詐騙集團利用深偽技術的3種詐騙手法,首先是假冒名人影片,歹徒利用深偽技術製作投資名人的假影片,聲稱有高報酬投資機會,通過社群媒體傳播。
再來是假冒名人通話,詐騙集團通過深偽技術生成假聲音,冒充投資名人與被害人通話,誘騙民眾相信虛假投資計劃。最後為假冒名人廣告,歹徒利用深偽技術,製作假廣告後,在網路投放,吸引潛在被害人點擊參與投資。
刑事局指出,經網路巡查發現,許多社群媒體粉專自稱為投資名人謝金河且刊登廣告,其實是利用AI假冒影像及聲音邀民眾加入投資群組,經向本人查證確認未開設任何投資群組,警方立即通報下架相關粉絲專頁及廣告,且許多投資名人都曾遭假冒。
刑事局表示,提醒民眾要提防AI深偽假冒名人投資詐騙,應注意網路聲稱是投資名人廣告及訊息,可先驗證真偽,如通過官方管道驗證,別僅透過社群媒體或非官方網站訊息查證。
警方說,網路廣告出現「飆股、強勢股、加入群組、穩定獲利、不收取費用」等話術,民眾要提高警惕,這是常見詐騙手法。
此外,民眾疑遇詐騙可撥165向警方求助,並提供證據,讓警方可及時處理,如懷疑是詐騙網站或廣告,也可檢舉協助下架,防止更多人受害。
刑事局表示,詐騙手法不斷翻新,民眾應保持高度警惕,並呼籲各界支持打詐專法的立法,以利政府持續加強打擊詐騙,確保民眾財產安全及社會和諧穩定。(編輯:李淑華)1130713
本網站之文字、圖片及影音,非經授權,不得轉載、公開播送或公開傳輸及利用。