本網站使用相關技術提供更好的閱讀體驗,同時尊重使用者隱私,點這裡瞭解中央社隱私聲明當您關閉此視窗,代表您同意上述規範。
Your browser does not appear to support Traditional Chinese. Would you like to go to CNA’s English website, “Focus Taiwan”?
こちらのページは繁体字版です。日本語版「フォーカス台湾」に移動しますか。
中央社一手新聞APP Icon中央社一手新聞APP
下載

OpenAI披露語音複製新工具 為防濫用將嚴格管制

2024/3/30 13:38(4/15 20:47 更新)
請同意我們的隱私權規範,才能啟用聽新聞的功能。
請同意我們的隱私權規範,才能啟用聽新聞的功能。

(中央社舊金山29日綜合外電報導)美國人工智慧(AI)開發公司OpenAI今天披露一款語音複製工具,打算在落實保護措施以防範語音造假詐騙之前都實施嚴格管制。

法新社報導,根據OpenAI一篇分享小規模測試成果的部落格文章,這款名為Voice Engine的模型主要可根據15秒的聲音樣本複製一個人的聲音。

總部位於舊金山的OpenAI表示:「我們承認生成類似某人聲音的言論具有重大風險,尤其先考量到選舉年…我們與政府、媒體、娛樂、教育、公民社會等領域的美國和國際夥伴合作,確保我們在打造過程中納入他們的意見。」

造假資訊研究員擔心AI驅動的應用程式在關鍵選舉年遭大量濫用,因為語音複製工具愈來愈多,且費用低廉、使用簡單又很難追蹤。

認知到這些問題的OpenAI表示,「基於合成語音濫用的可能性」,將對更廣泛的發布採取謹慎態度且隨時掌握狀況。

數月前,美國一名民主黨總統初選候選人的政治顧問承認假冒總統拜登的聲音撥打AI生成的自動語音電話,內容聽起來像是拜登呼籲選民不要在今年1月的新罕布什爾州初選投票。

這起事件令專家警覺,他們擔心在今年11月美國總統大選和全球其他重要選舉之前出現大量AI生成的深偽假資訊。

OpenAI表示,測試Voice Engine的夥伴已同意一些規範,包括要求所有聲音被這項工具複製的人都必須明確知情同意。

OpenAI還說,也必須明確告知受眾,他們聽到的聲音是AI生成。

OpenAI表示:「我們已實施一系列安全措施,包括打上數位浮水印,以追蹤所有Voice Engine所生成音訊的源頭,並主動監控這項工具的使用方式。」(譯者:曾依璇/核稿:張曉雯)1130330

中央社「一手新聞」 app
iOS App下載Android App下載

本網站之文字、圖片及影音,非經授權,不得轉載、公開播送或公開傳輸及利用。

請繼續下滑閱讀
172.30.142.16