可靠性探讨:医疗领域仍需慎用人工智能
没有一个人工智能工具是完全准确的。在人工智能对患者的诊疗和护理未到达构成威胁的程度之前,必须接受持续的审查。
人工智能为医疗保健行业提供了大量应用。例如机器学习、自然语言处理、机器人技术可以预测个人感染艾滋病毒的风险,评估患者住院安全的风险,为手术提供帮助等。
围绕人工智能在医疗领域的应用,一直有不同的声音。一些人工智能技术的倡导者们对人工智能的潜力持乐观态度,技术可以帮助在早期准确识别疾病、减轻医护人员的负担、服务临床护理等。然而,人工智能技术的反对者仍然持怀疑态度,他们警告说,人工智能并不是解决医疗保健行业所有问题的灵丹妙药,需要围绕患者安全进行培训。如果没有仔细的预先考虑,人工智能对于医疗保健行业的影响可能弊大于利。
人工智能系统的开发取决于其收集的数据。许多人工智能技术依赖于机器学习,即系统学习根据训练数据集预测结果。算法对大量数据进行梳理并生成结果。例如诊断,输入的数据越稳健,输出结果越准确。
输入的数据质量决定了输出信息的可靠性。存在缺陷或偏差的基础数据可能导致错误的学习,并产生错误的输出。少数人群的数据代表性往往很低,当AI用于决策时,他们特别容易受到过度诊断或诊断不足的影响。
同质数据构成了许多人工智能工具的基础,这意味着它们的输出不适用于特殊的人群。例如,采用深度学习工具预测个人感染艾滋病毒的风险,如果只从男性患者的数据集中学习,那么该工具就无法可靠且准确地预测女性患者的风险。按原样使用该工具将最终导致有害的结果或不必要的干预。
康涅狄格大学哲学荣誉教授Susan Anderson博士说,“这些系统所做的,就是从普通人的行为中学习。如果要在某一群人中进行一项关于什么是伦理道德上最好的民意测验,那输出的结果只取决于那一群人。不同的群体可能会有不同的想法。”
Michael Anderson说,“如果开发人员能把可能有偏差的输入考虑进去,就可以调整算法。除非预见到这个问题并确保有足够的数据来覆盖它,否则计算机无法实现差异化。”可以将进一步的数据整合到系统中以克服潜在的偏差,但是如果该数据不可用,那么人工智能系统的输出就可能存在固有偏差,并且不具备特定患者群体的代表性,导致人工智能技术对该病患群体的效率降低。
Michael Anderson指出,消除数据集中的偏差具有挑战性。他认为,目前必须清理有偏差的数据,这就需要浏览每个人的数据,从中找出偏差,似乎是一件疯狂的事。虽然使用可靠、高质量的数据有助于确保人工智能的准确性,但必须尊重患者的保密性和隐私。有些患者可能对自己的数据被共享和用于开发AI工具而感到担忧,尤其是在他们不清楚这些数据将被如何使用、以及在哪里存储的情况下。
患者有权决定是否以及如何共享其数据。为了做出明智的决定,他们必须充分了解人工智能的潜在安全漏洞。
Susan Anderson解释说:“生物医学的基本伦理原则之一就是尊重患者的自主性。”她表示,医生还应将诊断不准确的可能性告知患者,无论是过度诊断还是人工智能技术导致的误诊,患者都应知情。一些研究表明,机器学习比训练有素的临床医生更能准确诊断疾病。但是也有其他研究表明,机器学习工具的潜在缺点是,比人类医生更容易错过恶性病例。这些发现表明,必须要确定结果的严重性和不准确输出对患者造成的潜在危害。
使用AI时,应考虑过度诊断或误诊对患者的费用、临床、情感成本造成的影响。在这种情况下,如果错误的发现造成了过高的成本负担,那么将人工智能输出用于决策并不是最佳策略,可能会对患者造成潜在的伤害。如果AI成为临床实践的一部分,以人为本的思维必须始终是技术的核心。
人工智能的目的是帮助医生做出最终有益于患者的最佳决策。通常,对于最终用户来说,数据如何预测结果(哪些变量更有影响)以及信息如何组合并不清楚,这种黑盒问题意味着无法评估导致输出结果的方法是否准确。
人工智能是一项新技术,因此患者的知情同意也相应的比较复杂。医生不仅需要向患者解释人工智能试图实现的目标,还必须确保患者理解人工智能的概念及其相关风险。如果存在黑盒问题,患者不了解技术工具的机理和过程,他们就难以做出治疗决定。
由于缺乏这些方面的理解,患者可能不再完全信任医生做出的最佳决定,可能对医患关系造成影响。
然而,没有一个人工智能工具是完全准确的。在人工智能对患者的诊疗和护理未到达构成威胁的程度之前,必须接受持续的审查。
关注大健康Pai 官方微信:djkpai我们将定期推送医健科技产业最新资讯


