本網站使用相關技術提供更好的閱讀體驗,同時尊重使用者隱私,點這裡瞭解中央社隱私聲明當您關閉此視窗,代表您同意上述規範。
Your browser does not appear to support Traditional Chinese. Would you like to go to CNA’s English website, “Focus Taiwan”?
こちらのページは繁体字版です。日本語版「フォーカス台湾」に移動しますか。
中央社一手新聞APP Icon中央社一手新聞APP
下載

麻省理工學者揭露 臉部辨識科技有嚴重種族性別偏見

2019/4/4 20:00(4/11 23:39 更新)
請同意我們的隱私權規範,才能啟用聽新聞的功能。
請同意我們的隱私權規範,才能啟用聽新聞的功能。

(中央社麻州劍橋4日綜合外電報導)臉部辨識科技的應用範圍越來越廣,但美國麻省理工學院(MIT)研究人員布蘭維妮發現,就算是知名科技業者開發的軟體,在辨識深色人種臉部時,錯誤率也偏高。

布蘭維妮(Joy Buolamwini)的研究發現,包括亞馬遜(Amazon)等科技巨頭開發的臉部辨識軟體,在辨識深膚色女性的性別時,錯誤率較辨識淺膚色男性的性別高出許多。

布蘭維妮已成功刺激微軟(Microsoft)、IBM等企業改善自家系統,但亞馬遜卻大為光火,公開批評她的研究方法。一群人工智慧(AI)領域專家昨天公開力挺布蘭維妮,呼籲亞馬遜停止銷售自家臉部辨識軟體給警方。

除了專業人士和企業界,布蘭維妮的研究成果也引起政治人物注意,其中有些人主張,應為臉部辨識技術使用範圍設限。

布蘭維妮曾指出,目前相關技術多是在未受監督、甚至秘密情況下被使用,而一旦民眾有所警覺,可能為時已晚。

另外有許多研究人員也指出,人工智慧系統透過大數據尋找並識別規律、模式,但在過程中卻也複製了隱含在這些數據中的制度性偏見。

舉例來說,若人工智慧系統的學習材料多為白人男性影像,則它最適合用來辨識白人男性臉部。

這樣的差別性有時可能攸關生死。一份近期發表的研究顯示,幫助自駕車「看路」的電腦視覺系統,在偵測深膚色行人方面,明顯有困難。(譯者:陳韻聿/核稿:劉學源)1080404

中央社「一手新聞」 app
iOS App下載Android App下載

本網站之文字、圖片及影音,非經授權,不得轉載、公開播送或公開傳輸及利用。

27