诸如ChatGPT的大语言模型在今年引起了广泛关注,随着人们对与人工智能的伦理和安全展开激烈辩论的同时,医疗领域从业者也应当注意,人工智能正在改变整个行业的运作模式,这不是未来式,而是现在时。
FDA在十月份发布了更新后的AI和机器学习驱动的医疗产品清单,这些产品已经经过审查并获得了监管批准——其中包括将近700个条目,一些产品甚至可以追溯到90年代中期。这些产品可以通过自动清理脑部扫描、识别危险的急性病症或迅速发现从癌症到癫痫等疾病的迹象来展现其价值。 FDA发布AI和机器学习驱动的医疗产品清单
在十月份发布的这次清单中,通过的这些产品没有一个是基于生成式AI或大语言模型构建的。
清单中的模型类型的复杂程度各不相同。FDA 表示,有些是“浅层的”,算法的输入和输出之间的隐藏层少于两个,而另一些则使用深度学习。 通常,模型使用多种方法的组合来实现结果,例如使用一个模型生成特征,使用另一个模型进行分类。 FDA今年批准的设备类型的例子包括Edwards Lifesciences开发的一种算法,用于帮助临床医生预测接受先进血流动力学监测的患者发生全身低灌注事件的风险,以及MD 安德森癌症中心开发的放射计划助手,用于帮助临床医生预测发生全身低灌注事件的风险,帮助计划癌症治疗。 "许多人没有意识到的是,AI已经在医学影像领域发挥着重要作用,"西门子医疗数字健康北美负责人Peter Shen表示,“AI可以被利用在病人的放射检查中执行的简单任务,比如他们的姿势,利用AI增强这些图像,能够确保我们获得最精确的解剖图像,使临床医生能够阅读它们。”
放射学是FDA的AI目录中增长最稳定的领域。在2022年到2023年中期间获得授权的近250个设备中,超过80%的设备归属于这个专业领域。与其他专业相比,医学影像的数字化更早,设备从影像数据中识别复杂的模式,这实际上与机器学习算法的运作逻辑相同。
02 基础模型和大语言模型为AI算法的发展增添了一个新维度到2032年,医疗人工智能的市场可能达到数百亿美元,竞争正在逐渐加剧。
微软在6月份推出了最新的生物医学模型LLaVA-Med,该模型可根据CT、X光图片等推测出患者的病理状况。
LLaVA-Med可用于医学病理案例分析 亚马逊在7月份推出了 AWS HealthScribe,可以分析患者与临床医生的对话来自动生成临床记录,从医学论文、病历等自动创建关键摘要,从而帮助医护人员节省时间提升工作效率。 AWS Health的工作流程 西门子医疗在11月推出了基于深度学习的图像重建方案Deep Resolve,帮助临床医生大幅缩短扫描时间并减少噪声,进而提高图像质量。它不仅能提升图像域,还能“追溯”到更早的阶段:基于扫描的原始数据,从图像重建的第一步开始应用人工智能算法。 Deep Resolve直接利用原始数据进行磁共振图像重建,通过DNN网络有效提高图像质量 谷歌也在12月份推出了医疗人工智能大模型MedLM,希望能够应用于整个医疗保健行业的各个方面,包括医院、药物开发、面向患者的聊天机器人等。在美国医疗执照考试(USMLE)中,Med-PaLM 2的准确率为86.5%,根据谷歌的说法,该分数相当于“专家”医生水平。 MedLM的应用范围 对于这些处理多种类型数据并重新以不同方式输出的生成式AI而言,想要改变医疗行业的运作方式实际上并不容易,各大公司都在抢占这一广阔的市场,也随即推动了医疗投资领域的发展。欧洲生命科学风险投资公司Sofinnova Partners在今年启动了一个价值2亿美元的基金,旨在投资于数字医学领域即生物学、数据和计算相交汇的新领域。 Sofinnova Partners合伙人Edward Kliphuis表达了对医学领域生成式AI的看好,“大语言模型很可能成为真正精准医学的载体,它们不仅可以受益于所有知识,还可以解决每个人的差异性。” “如果你考虑到我们到目今天为止所做的事情,你就会发现,我们已经将工程方法应用于生物学,而这根本行不通,”他提到了今天的治疗方式。“你可以制造10辆完全相同的宝马汽车,但你不能创造出10个相同的人类。” 由于其能够消化看似无穷无尽的数据,大语言模型为医生提供与最新科学进展保持同步的机会。
“生成式AI在整个医疗保健领域的潜力影响非常重大,因为它不仅有能力影响研发,还能影响临床,”Elevage Medical Technologies的首席执行官Evan Melrose医生说道,“作为医生,我仍然会接触患者,而大语言模型将会使我更容易地接触到当前医学图书馆的所有出版物、书籍、教科书等,和最新的研究结果,并让医生甚至患者都可以获取到,这是非常有用的。”“在医学领域的历史上,一本教科书出版时,其中的数据已经过时两年了,因为它需要经过编辑和出版的过程,”他补充道。“我认为,随着时间的推移,大语言模型的发展将会推动这个过程更加高效。”
由于数据、算法和领域知识之间的相互依赖性,在引入人工智能系统时需要巧妙地整合领域和人工智能专业知识,而在医疗健康领域,什么是生成式AI取得成功的关键呢?“最重要的是帮助用户理解什么算法做出了它的临床决策,起作用的是什么医学原理。”Peter Shen表示,他呼吁医疗保健AI开发者遵循一种新类型的希波克拉底誓言。
“让我们对此负责是帮助推动生成式AI应用,并帮助消除黑盒恐惧的最好办法,”他说。“我们需要对临床医生说:这就是这个AI算法的工作原理,这是预期用途,这是它接受过训练的病人群体,以及应用范围。”随着越来越多建立在人工智能和机器学习基础上的医疗技术被开发,相关产品的监管和法规制定也面临着新的挑战。 FDA宣布计划组建一个外部专家小组,以更深入地研究AI产品的细节。这个新的咨询委员会将于明年首次会面,将关注数字健康、网络安全、治疗性应用程序、可穿戴设备、远程患者监测程序和虚拟现实工具。
该委员会的部分工作重点将是就跨领域的技术和科学问题,以及这些问题如何与该机构的政策和监管建议相互作用,向FDA及其领导层提供咨询意见。该委员会并不解决产品特定的问题,由FDA专门的咨询小组负责审查新的癌症药物和医疗设备,而该委员会只会在机构制定新政策时就交叉的技术和科学问题提供建议。 生成式AI的众多潜在用途可能会进一步模糊对机器学习驱动的医疗产品进行分类和清理的界限,而对技术准确性和有效性的担忧仍然是需要解决的难题。以目前的结果来看,一些生成式AI在回答问题时会给出毫无根据的答案,这种现象被称为AI幻觉。
ChatGPT AI幻觉对于医疗健康领域来说是致命的,这也是医疗人工智能发展的最大障碍。
医生和医疗保健专业人员可能依赖于AI生成的虚假信息进行诊断。如果这些信息不准确或有误导性,可能导至错误的诊断结果和治疗方案。这可能延误正确的治疗,使病情恶化或导至不必要的治疗干预。 若医疗设备或系统受到AI幻觉的影响,可能存在安全隐患。比如,影像诊断系统中的AI幻觉可能会导至错误的疾病诊断,从而给患者带来潜在的健康风险。 如果医疗决策基于AI生成的幻觉数据,会引发法律诉讼和伦理争议。医疗保健机构可能因使用不准确或误导性的信息而面临责任问题,同时也可能损害医生和患者之间的信任关系。 如果AI生成的信息无法被验证或追踪到其来源,医疗保健专业人员可能失去对数据的信任。这可能降低医生对AI系统的信任程度,从而影响其使用这些技术的意愿。
“我们会看到许多算法的结合,单一算法执行单一任务的情况将变得不再重要,普及机器学习的优点也可能意味着一些单一算法公司的终结。”Edward Kliphuis认为,“但另一方面,如果AI幻觉无法解决,也许不涉足生成式AI,实际上会更有益……如何在这两个极端之间寻求解决之道呢?这是非常有趣的。”基于细胞内部运作训练的基础模型与那些基于数字化文献和下载互联网论坛的模型相比,有什么不同呢?
Cell:计算机模拟人造细胞模型
“书面语言的基本单位是我们字母表中的26个字母,而在生物学中,可以将A、C、T和G四种氨基酸视作基本单位,生物体生成氨基酸,然后形成蛋白质。”Edward Kliphuis表示,“我们已经看到一些学术模型实际上遵循了大型语言模型在自然语言上所遵循的相同趋势。所以,我的预测是,将会有大量资金投入到这方面,因为在模型发展的过程中最大的挑战就是收集计算和数据。”这可能意味着,起初,只有财力最雄厚的参与者才能参与生成式AI的发展。 “我们所有人在这里的目标都是帮助提高患者所接受的治疗水平,”Evan Melros说道。“由于达到这个目标的工具甚至今天还没有问世。我们现在处于一场非常漫长比赛的第一局。”
主编|赵清 审核|祎禾 排版|miya
|