本網站使用相關技術提供更好的閱讀體驗,同時尊重使用者隱私,點這裡瞭解中央社隱私聲明當您關閉此視窗,代表您同意上述規範。
Your browser does not appear to support Traditional Chinese. Would you like to go to CNA’s English website, “Focus Taiwan”?
こちらのページは繁体字版です。日本語版「フォーカス台湾」に移動しますか。
中央社一手新聞APP Icon中央社一手新聞APP
下載

Google工程師稱機器人有知覺遭停職 AI爭議浮檯面

2022/6/15 14:57(6/23 19:01 更新)
請同意我們的隱私權規範,才能啟用聽新聞的功能。
請同意我們的隱私權規範,才能啟用聽新聞的功能。

(中央社舊金山14日綜合外電報導)Google內部針對AI(人工智慧)技術是否具有人類意識的爭論曝光,讓AI伴隨的野心與風險浮上檯面。

Google這家矽谷巨頭上週將一名工程師停職,因為他認為公司的AI系統LaMDA似乎「有知覺」,Google已正式駁斥這種說法。

多位專家告訴法新社,他們也對LaMDA有意識的說法高度懷疑,但人類的本質和野心很容易模糊問題。

美國華盛頓大學(University of Washington)語言學教授班德(Emily M. Bender)說:「問題在於…當我們遇到屬於我們語言的字串時,就會加以理解。」

「我們在做的是想像一個不存在的頭腦。」

LaMDA是一個使用先進模型、功能強大的系統,能用文字聊天來模擬人類溝通。

根據Google的解釋,該系統建立在一個模型上,模型觀察單字之間的關係,然後預測接下來會出現在句子或段落中的單字。

北卡羅來納大學教堂山分校(University of North Carolina at Chapel Hill)電腦科學助理教授斯里瓦斯塔瓦(Shashank Srivastava)說:「它在某種程度上仍然只是模式匹配。」

「當然,你可以找到一些真正有意義的對話,可以生成一些非常有創意的文字,但在許多情況下它會迅速轉移。」

儘管如此,確定它們有沒有意識還是棘手問題,這通常得使用圖靈測試(Turing test)這樣的基準測試。

多倫多大學(University of Toronto)哲學教授金威爾(Mark Kingwell)說:「對於2022年我們這裡的任何AI來說,這實際上是一個相當容易通過的測試。」

「更嚴格的測試是上下文測試,當前系統似乎會被上下文測試中的常識知識或背景想法等難倒,那是演算法很難處理的東西。」

AI在科技界內外仍然是微妙議題,可能讓人驚訝,卻也讓人有些不舒服。

Google在聲明中迅速且堅定地淡化LaMDA是不是有自我意識的問題,「這些系統模仿了數百萬個句子中的交流類型,並且可以重複任何奇異的話題」。(譯者:鄭詩韻/核稿:楊昭彥)1110615

中央社「一手新聞」 app
iOS App下載Android App下載

本網站之文字、圖片及影音,非經授權,不得轉載、公開播送或公開傳輸及利用。

請繼續下滑閱讀
27