麻省理工學者揭露 臉部辨識科技有嚴重種族性別偏見
2019/4/4 20:00(4/11 23:39 更新)
(中央社麻州劍橋4日綜合外電報導)臉部辨識科技的應用範圍越來越廣,但美國麻省理工學院(MIT)研究人員布蘭維妮發現,就算是知名科技業者開發的軟體,在辨識深色人種臉部時,錯誤率也偏高。
布蘭維妮(Joy Buolamwini)的研究發現,包括亞馬遜(Amazon)等科技巨頭開發的臉部辨識軟體,在辨識深膚色女性的性別時,錯誤率較辨識淺膚色男性的性別高出許多。
布蘭維妮已成功刺激微軟(Microsoft)、IBM等企業改善自家系統,但亞馬遜卻大為光火,公開批評她的研究方法。一群人工智慧(AI)領域專家昨天公開力挺布蘭維妮,呼籲亞馬遜停止銷售自家臉部辨識軟體給警方。
除了專業人士和企業界,布蘭維妮的研究成果也引起政治人物注意,其中有些人主張,應為臉部辨識技術使用範圍設限。
布蘭維妮曾指出,目前相關技術多是在未受監督、甚至秘密情況下被使用,而一旦民眾有所警覺,可能為時已晚。
另外有許多研究人員也指出,人工智慧系統透過大數據尋找並識別規律、模式,但在過程中卻也複製了隱含在這些數據中的制度性偏見。
舉例來說,若人工智慧系統的學習材料多為白人男性影像,則它最適合用來辨識白人男性臉部。
這樣的差別性有時可能攸關生死。一份近期發表的研究顯示,幫助自駕車「看路」的電腦視覺系統,在偵測深膚色行人方面,明顯有困難。(譯者:陳韻聿/核稿:劉學源)1080404
本網站之文字、圖片及影音,非經授權,不得轉載、公開播送或公開傳輸及利用。