人工智能系统已被应用于成像、药物验证和机器辅助手术等多个领域。在不久的将来,这些系统将继续变得更智能、更有能力,为治疗和手术提供当今医疗专业人员无法想象的见解。
作者 / Mitch Maiman,IPS联合创始人
人工智能(AI)是最新的技术领域,在商业和私营部门都引起了热议。免费使用的公共人工智能引擎(如OpenAI的ChatGPT和谷歌的Bard.ai,以及越来越多的其他引擎)已经得到了广泛的普及和应用。使用这些引擎时需要小心谨慎,以验证结果的准确性。这对于撰写文章来说也许没什么问题,但在医疗领域的应用呢?2024年,人工智能在医疗技术产品中的应用前景如何?
首先,我们必须区分基于规则的闭环处理与真正的广义人工智能(体现在通用人工智能中)的实施。目前市场上被称为人工智能的技术只是根据已知的人类规则行事。机器学习中的任何智能都能提高已知规则的效率和实用性,而不是揭示一套未知的规则。
在医疗技术和其他领域,已经有许多应用系统根据规则对来自各种传感器和其他来源的数据进行分析和处理,以生成 “智能结果”。计算平台根据预先编程的规则利用数字化数据进行分析并不是什么新鲜事。
例如,在医疗技术领域,几乎所有的现代血糖仪都能采集血液样本,确定血糖水平的特征,并输出eAG水平的数值,以及对血糖水平是高、正常还是低的定性评估。较新的设备现在可以查看趋势,并对eAG随着时间推移的走向提出可预测的建议。这代表了自“智能互联设备”诞生以来的低智能水平。这并不代表我们大多数人所设想的人工智能的高智能水平。
人工智能在医疗技术领域更复杂的应用是使用更广泛、更庞大的数据输入集来产生大多数人无法轻易获得的洞察力,例如用于帮助医疗保健专业人员管理患者使用的处方药和非处方药补充剂的软件。
例如,美国大多数医生都使用电子病历(EMR)系统,该系统可追踪患者的各种病情、治疗方法和检查结果。他们还会在病人的个人资料中追踪药物和保健品的使用情况。对于有常规病症的患者,医生在提出新的处方建议时会评估患者使用的常用药物和保健品。对于那些健康状况复杂的患者,有时会涉及到使用异国新药或标签外用药等可能相互冲突的诊断和治疗,这些药物和治疗之间的相互作用可能不容易被初级保健医生甚至是专科医生发现。
即使是简单的病例,医生也是人,也可能在开药方时出错。如今,EMR系统可以在简单和复杂的情况下应用广泛的智能因素,向医疗保健专业人员提出用药建议,这非常有帮助。这对最大限度地减少错误或提供单个医疗保健专业人员难以发现的新颖指导大有裨益。
即使使用了这些工具,医生仍需运用人工判断来解释结果和建议。医生可能会推翻电子病历的建议,开出标示外用药处方。这些例子属于人工智能的第一个层次,在这一层次中,机器智能超越了人类的能力,尽管是在非常狭窄的范围内。
Part 1 人工智能在医疗技术中的下一步发展 要想让人工智能在处理大量不同数据的基础上使用更广泛的机器智能来发现自己的规则,仍然存在许多挑战。在这种情况下,人工智能引擎可以通过人类编程算法无法预见的洞察力来开发智能。要做到这一点,人工智能引擎需要访问大量可靠的数据,而这其中存在许多挑战,包括: - 药品制造商不会公开分享与药品相关的所有数据,只会有选择性地公布获得 FDA 认证所需的测试结果。 - 人工智能引擎无法普遍使用患者数据。EMR系统之间的数据共享受到限制。在短期内,想要开发人工智能引擎的外部开发人员不太可能获得EMR数据。这限制了人工智能系统可访问的数据量。 - 即使在最好的情况下,EMR系统也可能无法访问所有相关的患者数据。例如,一位使用 EMR“系统A”的专科医生会包含处方信息,而这些信息可能会被发送到一家药房。病人就诊的另一位专科医生可能使用 EMR“系统B”,处方信息被发送到另一家药房。主治医生可能看不到发送到不同药房的所有药物的综合信息。病人可能会忘记告知主治医生他们看的所有医生的所有处方。他们也可能忘记告诉主治医生,或所有非处方药补充剂、饮食或其他生活方式因素,而这些因素可能看起来并不相关。对于评估整个患者资料的医生或试图做同样事情的人工智能来说,患者提供的这些看似不重要或被遗忘的信息或错误可能是检测或治疗疾病或评估患者健康轨迹的关键。 - 研究数据是专有的,人工智能可能无法获取。大学和制药公司可能不会将其研究数据公之于众(至少在这些数据获得知识产权保护之前不会)。 - 研究数据可能具有完整性,也可能不具有完整性。值得庆幸的是,大多数研究数据都是本着真实和诚实的原则编制的,但每年都有未经同行评审或虽经评审但包含未被发现的错误或完全伪造的研究数据被公布的情况。 - 被证明成功的药物或程序可能会公布数据。但是,失败的治疗方法的数据可能不会被公布。对于试图发明新的治疗方法的人工智能来说,了解哪些方法无效以及相关的副作用可能与了解哪些方法有效的数据同样有价值。 - 人工智能系统无法获取非定量数据,而这些数据可告知个人哪些是可接受的,哪些是不可接受的。这些“人为因素”在数据集中没有体现。医生的部分职责是不仅要评估什么可能是有效的治疗方式,还要了解患者的生活方式或疼痛耐受性等情况,以便为患者提出适当的建议。 除了在提供全面数据方面的挑战外,近期内,美国食品及药物管理局还在努力解决如何认证人工智能在产品中的应用问题。其中一个问题与要求处理过程透明有关。 也就是说,监管部门提交的文件必须清楚、可追溯地说明数据是如何分析和得出结论的。对于更智能的人工智能引擎来说,引擎内部的机器学习是其价值的重要组成部分。医疗技术希望从人工智能引擎中获得新的见解。然而,要确定人工智能引擎是如何产生新的见解或开发出新的结果,并不总是可行的,也并非易事。 在短期内,FDA会谨慎行事,因为如果发布的人工智能引擎生成的结果是错误的(目前的开放式人工智能系统因总是生成可能正确也可能不正确的答案而臭名昭著),那将是灾难性的。 即使存在这些限制,人工智能系统仍将继续发展,使用任何可用的数据集作为输入。目前已经有一些产品采用了非常有限或中等程度的智能技术提高了生活质量,改善了治疗效果。人工智能系统已被应用于成像、药物验证和机器辅助手术等多个领域。在不久的将来,这些系统还将继续发展。我们殷切希望,人工智能系统将继续变得更智能、更有能力,为治疗和手术提供当今医疗专业人员无法想象的见解。