與恐怖分子為敵 臉書推AI辨識訊息內容
2017/6/16 11:07(6/16 11:27 更新)
(中央社舊金山15日綜合外電報導)社群媒體巨頭臉書(Facebook)今天表示將大量運用人工智慧(AI),來致力推動臉書成為與極端分子敵對、不利其散布仇恨訊息的地方。
法新社報導,臉書和其他網路巨擘遭外界指控,在杜絕仇恨訊息和阻止聖戰士社群媒體平台吸收新血方面的處置太少又太慢,臉書因而壓力漸增。
臉書全球政策管理主管貝克特(Monika Bickert)和反恐政策主管費希曼(Brian Fishman)今天在聯合部落格貼文中說,臉書承諾「迎頭」解決這些問題。
貝克特和費希曼在貼文中表示:「近日發生多起恐怖攻擊後,人們開始質疑科技公司在對抗線上恐怖主義所扮演的角色是什麼。」
他們說:「我們希望臉書成為與恐怖分子為敵的地方。我們深信科技和臉書,能成為解決問題的一部分。」
他們描述臉書如何自動執行偵測,並且移除和伊斯蘭國(IS)、蓋達組織(Al-Qaeda)與旗下分支相關的聖戰士內容連結,未來也打算慢慢增加其他極端組織到偵測名單上。
舉例來說,人工智慧會用來辨識1則剛張貼的影像或影片是否符合之前已知遭到任何社群媒體移除的訊息,這個措施將套用在20億臉書用戶身上,並涉及超過80種語言。
根據兩人貼文,臉書也在試驗機器智能,來瞭解語言到能夠偵測字句是否在讚美或支持恐怖主義。
根據貝克特和費希曼,臉書反恐的努力也將延伸到臉書旗下的應用程式,包括WhatsApp和Instagram。
同時,由於人工智慧無法捕捉一切,且有時也會犯錯,因此臉書也一舉增加人力,先前宣布將特別雇用3000名職員來追蹤並移除暴力影像內容。(譯者:中央社李佩珊)1060616
本網站之文字、圖片及影音,非經授權,不得轉載、公開播送或公開傳輸及利用。