
前言
/
新技术的创新与应用一直以来都是推动医疗和生命科学行业进步的关键因素,而生成式 AI 的崛起更为这些领域带来了前所未有的机遇。生成式 AI 在变革各个行业的同时,医疗与生命科学行业的专家也马不停蹄地为医疗技术创新速度加快、数据使用难度剧增、多学科和多组织协作等新的问题新需求挑战寻找解决方案。但是,如今的专家们越来越感到“兴奋”与“恐惧”,我们是该认真思考一下如何妥善地使用生成式 AI 技术了。


如果你发现自己对于 ChatGPT 和类似的人工智能聊天机器人对医疗保健领域的意义总是有着“拧巴”的感觉,那么你并不孤单。美国国家医学院院长Victor Dzau,临床和研究中取得的成就已经使他处于该领域的顶峰了,但是他也和你一样“拧巴”:“OK!作为一名非人工智能专家,我应该为新技术的出现感到兴奋,但是我好像也有点害怕。”,在一场专注于生成式AI和大型语言模型的“问题框架对话”上他这样说道。
但是我们该怎么办呢?
事实上,“兴奋”和“害怕”才是正确的反应。尽管很少有一位人工智能专家能像 Dzau 那样坦诚地审视人工智能的前景及其对医疗、公共卫生和政策的影响,但在兴奋和害怕之间摇摆不定是一种持续的基调。
微软研究与创新副总裁彼得·李(Peter Lee)说到:“可以确定的是,生成式 AI 需要被特殊对待,它们不是传统意义中的计算机,而是一种新型的推理工具。”,医疗技术领域的研究者们正在尝试了解以及学习如何使用它。Lee 的同事 Sebastien Bubeck(微软数学家兼高级首席研究经理)做出这样的评估:“我认为 GPT-4 已经获得了常识,我可以看到未来将会有一个模型在你的手机上运行。”
与此同时,北加州 Kaiser Permanente 的医生、信息学家和高级研究科学家 Vincent Liu 也补充道,随着人工智能与基因组学以及纳米材料的交叉,“它实际上可能会改变生物学。”
兴奋/恐惧?
生成式AI进步如此之快的一个例子是,谷歌的 Med-PALM2在医疗执照考试中已经达到了人类专家的水平。但在对是否为“专家”的讨论之前,我们还应该关注类似于Chat-GPT的技术能否成为值得信赖的临床合作伙伴?这里仍有众多问题有待解决。例如,当退伍军人事务部部署生成式 AI 来追踪新冠病毒时,它发现“我们必须不断监控和学习,以确保模型持续发挥作用”,退伍军人事务部首席人工智能官兼退伍军人管理局主任吉尔·阿尔特罗维茨(Gil Alterovitz)说,“如果你在几秒钟后向系统提出相同的问题,您可能会收到不同的答案。”
当然目前对于AI系统安全的赌注似乎是满足于一般的事情——例如,整理一份冗长且令人困惑的医疗图表中包含的信息——尽管一系列更多的突破性的事情正在发生(AI系统会得出新的结论)。一个备受关注的应用是使用ChatGPT 等人工智能聊天机器人的语言能力来扩大获得心理健康护理的公平机会。Dzau 指出,“我们需要清楚地了解哪些内容我们还不能莽撞地来开展,哪些内容在适当的指导和人工干预下可以计划开展。”
自 2022 年 11 月公开发布以来,ChatGPT 的访问量已超过 100 亿次。然而,到目前为止,生成式 AI 的企业开发人员如何与现实世界中进行应用研究的专家/卫生系统合作,尚未达成一致。重要的是,也没有任何机制可以系统地将个别医生和患者的意见纳入开发过程。
华盛顿大学医学院首席数据科学家 Philip Payne 表示,研究人员需要制定“一套我们在评估AI系统应用时应该提出和回答的常见问题”。斯坦福医疗保健公司首席数据科学家 Nigam Shah 表示同意,“我们需要专注于定义和验证福利。作为一个社区,我们仍在解决这个问题。我们还不知道如何微调数据以了解到底是什么导致了答案。”
显然,上述各位专家的观点完全是专注于现实应用的讨论,没有人会无缘无故地提出一个已经有答案的问题:“你开发了一种全新的、非人类的智能,却没有理解它是如何工作的?”
毋庸置疑,监管机构的政策“被迫”迎头赶上。美国FDA数字健康卓越中心负责人 Troy Tazbaz 承认,Chat GPT和生成人工智能是“推动我们所有人以不同方式思考的不同范式”。他建议,FDA 可能需要新的法律授权来监督软件,这些软件在批准用于具体的产品后可能会发生重大变化和发展。
10月11日,FDA宣布成立宣布成立新的数字健康咨询委员会,以帮助探索与数字健康技术相关的复杂科学和技术问题。
心脏病专家,BJC HealthCare 数字健康和创新项目负责人托马斯·马多克斯 (Thomas Maddox) 表示,更广泛的挑战是如何确保我们不会无意中用自己的偏见影响人工智能。“因为人工智能最终反映了我们和我们所有的偏见,所以我们如何帮助人工智能并最终帮助我们在提供的护理方面更加公平?” 。
NAM 给出了一个答案:“那么我们就需要构建一个学习型的医疗保健系统。” ChatGPT 也是如此。当我们向 ChatGPT 提出 Maddox 的问题并选择“精确”作为我想要的回复类型时,ChatGPT 很快提供了一个以数据多样性为中心的几点计划;人的多样性,验证,治理结构以及透明度。
有趣的是,ChatGPT 自己也会思考这些问题并给出在我们的理解中“聪明”的答案,但是如何使其输出真正的“智慧”,可能是我们应该重点关注和行动的方向。
▼扫描下方二维码阅读相关报道

*文章内容仅供参考,如涉及版权问题,请联系我们删除。
END
编辑 | 罗虎
参考 | Forbes · Innovation – Health
审核 | 医工学人

本篇文章来源于微信公众号: 医工学人