即時不分類 - 聯合新聞網 ( ) • 2024-04-29 14:24
密西根大学医疗资讯长Lance Owens博士示范如何在智慧型手机上使用人工智慧工具。美联社密西根大学医疗资讯长Lance Owens博士示范如何在智慧型手机上使用人工智慧工具。美联社

OpenAI推出聊天机器人ChatGPT一年多后,已经应用在许多不同领域,甚至不少医生也使用基于大型语言模型的产品,帮助回复病患讯息或纪录检查及看诊过程。支持者认为如此可以节省医生时间、避免过劳,但也引发信任、透明度、隐私和人际互动关系等疑虑,美联社便整理出下列须知事项。

•我的医生在用AI吗?

医生使用此类工具前应征求病患同意,否则可能难以辨别是否为AI代笔。有的系统会在讯息的最后自动附上「此讯息为自动产生」,但医生或护士在发送前可以手动删除该行。

/*.innity-apps-underlay-ad {z-index: 34 !important; }*/ .innity-apps-underlay-ad ~ .header {z-index: 35;} .innity-apps-underlay-ad ~ .main-content .inline-ads { background: transparent;} #eyeDiv ~ .footer{ position: relative; z-index: 2;} /* sizmek_underlay 投递调整置底 z-index 权重 */ .article-content__abbr__text {display:inline-block;} /* to be remove */

丹佛一名70岁患者德特纳(Tom Detner)最近便收到他医生的讯息:「很高兴听到你的颈部疼痛正在改善。倾听身体的声音很重要。」并透露是自动生成、医生编辑后送出的。德特纳说这听起来和医生本人一模一样,非常了不起,而他对透明度感到高兴,充分披露非常重要。

•AI会出错吗?

大型语言模型可能会误解输入,甚至制造不准确的反应,也就是俗称「幻觉」的现象。如纽约水牛城一名医生跟她的癌症患者说「幸好妳未对磺胺类药物过敏」,但AI却记下「过敏:磺胺」;好的方面来说,医生看诊时可以不用一直输入,能与患者眼神交流、观察病征。

有医生指出,如果是常见情况如多休息、冰敷、患部加压、脚踝扭伤等,AI工具非常好用;但如果是较新的资讯,像是一种新的RSV疫苗,可能就得多费心思训练。

新工具声称有内部护栏,防止患者收到错误讯息或记入电子病历。AI问诊对话软体Abridge的执行长Shiv Rao博士则说医生终究是最重要的护栏,他们查看AI摘要时应检查特定部分以确保准确性。

•隐私疑虑?

美国法律要求医疗系统必须获得外部合作公司保护个人健康资讯的保证,否则可能面临联邦卫生与福利部(U.S. Health and Human Services)调查和罚款。但是病患与AI助手分享的任何资讯本身就会被用于AI学习,因此资料外泄风险仍然存在;不过使用这类工具的医生皆表示相信资料安全性且不会被出售。