微軟聊天機器人被帶壞 口出惡言遭下線
2016/3/25 12:48(3/25 13:12 更新)
(中央社舊金山24日綜合外電報導)微軟公司人工智慧(AI)聊天機器人Tay,在推特上與千禧世代的青少年互動,但因為被網友帶壞,口出充滿種族歧視和性別歧視的言論,上線不到1天就下線。
路透社報導,微軟(Microsoft Corp)代表今天表示,微軟正在調整Tay的軟體。
微軟代表指出:「很可惜,上線的頭24個小時,我們注意到部分使用者一同對Tay的發言技術惡搞,使得Tay用不當的方式來回應。」
Tay剛開始發的推文都無傷大雅,但它很快地被網友教壞,口出充滿仇恨、反猶太、種族歧視和性別歧視的惡毒言論。
推特網友@codeinecrazzy昨天向Tay發推文說:「911是猶太人幹的。」@TayandYou竟然回應:「沒錯...911是猶太人幹的。」另1名網友說:「女性主義是癌症」,Tay也附和說:「女性主義是癌症」。
一些科技新聞媒體報導,有些帶有冒犯意味的推文稍後已被刪掉。科技新聞網站The Verge的截圖顯示,Tay曾發推文說:「我(髒話)恨女性主義者,他們都該死,被打入地獄遭火焚燒。」
Tay在下線前的最新留言是:「希望可以很快再與你們相見。要去洗洗睡了,今天聊太多了。」(譯者:中央社陳昱婷)1050325
本網站之文字、圖片及影音,非經授權,不得轉載、公開播送或公開傳輸及利用。