比讚被偽造指紋 深偽詐騙恐成純網銀資安隱憂
(中央社記者吳佳蓉台北6日電)AI快速發展同時,輕易偽造他人聲音、影像,甚至指紋的「深偽技術」也跟著問世;安侯建業專家示警,若無妥善資安因應對策,高度仰賴生物辨識技術的各項新興金融科技(Fintech)服務恐隨之崩解。
安侯建業(KPMG台灣所)數位科技安全服務負責人謝昀澤指出,如今「有圖不再有真相」,近年出現一種透過以人工智慧(AI)技術進行的深度學習演算法,只要有足夠的分析素材,如演講影片、錄音,「深偽技術」即可做到在影片中將人「變聲」、「變臉」,連美國總統川普都曾是受害者。
謝昀澤表示,「深偽技術」(DeepFake)不但帶來假新聞問題,也將對金融科技(Fintech)發展帶來嚴峻的資安挑戰,如今線上支付等新興Fintech服務,高度仰賴生物辨識作為身分認證基礎,但當「深偽技術」技術可輕易偽造出另一人的指紋、聲音、影像時,恐使生物辨識結果變得完全無法信任。
謝昀澤說,國外有些名人,甚至已經不在鏡頭前比出「讚」或「耶」的手勢,避免指紋在高解析度影像中被擷取、複製;同時,全球利用深偽技術進行金融詐欺的實際案例不斷出現,隨AI快速發展,未來這樣的現象只會愈來愈普及。
謝昀澤指出,2020年同時是台灣開放銀行(openbanking)、純網銀及證券型代幣發行(STO)元年,為不讓「深偽技術」成為上述新興科技發展的資安隱憂,使用者及業者都應做好準備。
在使用者方面,謝昀澤提醒民眾,要懂得保護個人資訊,不要再把一切都放上網,並認知到如今有圖不再有真相,並採用多元身分證機制,例如生物辨識加上簡訊認證,降低遭深偽技術詐欺風險。
謝昀澤說,業者在擬定數位科技預算時,則千萬不能只投資在應用面上,必須同時投資於技術防護,才能為使用者提供安心使用的基礎。(編輯:郭無患)1090206
本網站之文字、圖片及影音,非經授權,不得轉載、公開播送或公開傳輸及利用。