本網站使用相關技術提供更好的閱讀體驗,同時尊重使用者隱私,點這裡瞭解中央社隱私聲明當您關閉此視窗,代表您同意上述規範。
Your browser does not appear to support Traditional Chinese. Would you like to go to CNA’s English website, “Focus Taiwan”?
こちらのページは繁体字版です。日本語版「フォーカス台湾」に移動しますか。
中央社一手新聞APP Icon中央社一手新聞APP
下載

研究:Google AI醫療聊天機器人 通過美國醫師資格考

2023/7/13 20:32(7/13 21:06 更新)
請同意我們的隱私權規範,才能啟用聽新聞的功能。
12日發表的一份研究指出,Google的AI醫療聊天機器人在難度極高的美國USMLE執業醫師資格考試中及格。(圖取自Google Research網頁sites.research.google/med-palm)
12日發表的一份研究指出,Google的AI醫療聊天機器人在難度極高的美國USMLE執業醫師資格考試中及格。(圖取自Google Research網頁sites.research.google/med-palm)
請同意我們的隱私權規範,才能啟用聽新聞的功能。

(中央社巴黎13日綜合外電報導)根據昨天的一項同行評審研究,谷歌(Google)的人工智慧(AI)醫療聊天機器人在難度極高的美國USMLE執業醫師資格考試中及格,但其答案仍遠比不上人類醫師。

法新社報導,去年,Chat GPT由谷歌競爭對手Microsoft(微軟)資助的OpenAI開發上市,為科技巨頭在快速發展的人工智慧領域競爭拉開序幕。

儘管對於人工智慧未來的可能性和危險性已經引起廣泛討論,但在健康領域,這項技術已經展現了具體進展,包括能夠像人類一樣解讀某些醫學掃瞄。

去年12月,谷歌首次在學術著作預印本中,展示了回答醫學問題的人工智慧工具Med-PaLM。與Chat GPT不同,谷歌尚未公布於眾。

這家美國科技巨頭說,Med-PaLM是第一個通過美國醫師執照資格考試(USMLE)的大型語言模型,該模型的人工智慧技術透過大量人類生成的文本訓練。

這項考試的受試者為美國醫學生和受訓醫師,及格分數約為60分。

在二月,一項研究指出Chat GPT已經達到及格或接近及格的結果。

在昨天發表於自然雜誌(journal Nature)的同行評審研究中,谷歌研究人員表示,Med-PaLM在具有美國USMLE執業醫師資格考試風格的選擇題中取得67.6分。

該研究寫道:「Med-PaLM的表現令人鼓舞,但仍比臨床醫師差。」

為了辨識並減少「錯覺」(用於稱作AI模型提供錯誤資訊的情況),谷歌說已經開發一套新的評估指標。

谷歌研究人員及這份新研究報告的主要作者辛格霍(Karan Singhal)告訴法新社,團隊已使用這一套評估指標測試他們新版本的模型,並取得了「非常令人興奮的」結果。

一份發布於5月的學術著作預印本中的研究指出,Med-PaLM 2在美國USMLE執業醫師資格考試中取得86.5分,比前一個版本提高了近20%。

未參與研究的英國巴斯大學(University of Bath)電腦科學家達芬波特(James Davenport)說,這些人工智慧醫療聊天機器人正面臨一個棘手問題,「但人們故意視而不見」。

他表示,「醫學問題與實際醫學」間存有很大的差異,醫學實際上包含診斷和治療真正的健康問題。

英國里茲大學(Leeds University)人工智慧專家寇恩(Anthony Cohn)說:「錯覺大概會永遠是這些大型語言模型的問題,因為他們具有統計學上的本質。」

因此,寇恩指出:「這些模型應該始終被視為輔具,而非最終的決策者。」(實習編譯:吳冠緯/核稿:陳政一)1120713

中央社「一手新聞」 app
iOS App下載Android App下載

本網站之文字、圖片及影音,非經授權,不得轉載、公開播送或公開傳輸及利用。

請繼續下滑閱讀
172.30.142.30