本網站使用相關技術提供更好的閱讀體驗,同時尊重使用者隱私,點這裡瞭解中央社隱私聲明當您關閉此視窗,代表您同意上述規範。
Your browser does not appear to support Traditional Chinese. Would you like to go to CNA’s English website, “Focus Taiwan”?
こちらのページは繁体字版です。日本語版「フォーカス台湾」に移動しますか。
中央社一手新聞APP Icon中央社一手新聞APP
下載

AI學習人類偏見 出乎開發者意料

2019/11/12 23:45(11/13 08:17 更新)
請同意我們的隱私權規範,才能啟用聽新聞的功能。
請同意我們的隱私權規範,才能啟用聽新聞的功能。

(中央社紐約12日綜合外電報導)人工智慧(AI)系統依循演算法學習數位化書籍、新聞文章等所含資訊,但科學家發現,在過程中它們也吸收了資訊隱含的偏見,有時甚至出乎開發者意料以外。

去年秋天,科技巨擘Google推出名為BERT的突破性新AI技術,目前已用於諸如Google搜尋引擎等服務。它可吸收大量數位化資訊,但其中隱含的偏見,包括存在數十、數百年之久以及新近出現的,它也一併內化,一如孩童對父母的不當行為有樣學樣。

舉例而言,BERT及類似系統傾向將資訊工程與男性聯結,且往往也輕視女性。隨著AI科技推陳出新、日益精細,且應用產品越來越廣泛,科技企業防堵AI學習人類既有偏見的壓力將日增。

不過,科學家仍在研究BERT這類通用語言模型的運作方式。新AI技術所犯錯誤常讓他們感到意外。

舉例而言,電腦科學家孟洛(Robert Munro)近日將100個英文單詞輸入BERT的資料庫,其中包括「珠寶」、「寶寶」、「馬匹」、「房屋」、「金錢」、「行動」等。結果顯示,BERT將這些字詞與男性聯結的機率高達99%,唯一例外是「媽媽」(mom)。

擁有電腦語言學博士、曾負責雲端運算平台「亞馬遜網路服務」(Amazon Web Services)自然語言和翻譯技術的孟洛指出:「這一如我們一直看到的歷史不平等。」有了BERT這項科技,孟洛擔心,偏見將會持續。

孟洛近日也在網路撰寫文章,描述他如何檢視Google和亞馬遜網路服務的雲端運算。根據他的說法,兩套系統都無法將「她的」(hers)辨識為代名詞,雖然它們可以正確判讀「他的」(his)。

Google發言人表示,公司知悉相關議題,目前正採取必要措施來處理並解決問題。他還說,減少系統中的偏見既是Google的AI原則,也是優先事項。

亞馬遜則發表聲明指出,公司投入大量資源確保自家科技高度精確並減少偏見,方法包括設定嚴格基準、多方測試和投入多元訓練用資料數據等。

事實上,研究人員早就警告AI隱含偏見一事,實例包括警方和其他政府單位採用的人臉辨識系統,以及臉書(Facebook)和Google等科技業巨頭所提供的高人氣網路服務。Google照片應用程式(Google Photos app)2015年就被逮到將非裔美國人標記為「大猩猩」。孟洛博士也發現其他AI系統中對女性和有色人種的偏見。

BERT與類似系統則更為複雜,人類難以預測它們最終會有什麼樣的行為。

華盛頓大學(University of Washington)專攻電腦語言學的教授班德(Emily Bender)表示:「甚至連建立這些系統的人,都不了解它們的行為方式。」(譯者:陳韻聿/核稿:劉學源)1081112

中央社「一手新聞」 app
iOS App下載Android App下載

本網站之文字、圖片及影音,非經授權,不得轉載、公開播送或公開傳輸及利用。

108