AI融入临床实践,医生需了解技术缺陷 防范风险
“我不得不接受这样一个现实:我们不了解的知识每天都在增加。”
AI的支持者一直在宣传AI改变医疗服务的潜力。例如机器学习可以识别高风险患者,对他们进行预防性治疗,深度学习算法能识别人类医务工作者无法识别的医学影像,自然语言处理正在减少开发者编写代码的时间。
由于具有如此广泛的潜在影响,随着AI越来越多深入地融入临床实践,为了更好地理解将技术应用到临床实践中所涉及的工具和道德含义,需要对医生进行培训。
一些医生认为AI并不是医学知识。他们更聚焦于对病人的情况做出诊断,而不是了解如何使用计算机算法。然而,随着大数据和人工智能更多地被整合到临床实践中,医生不可避免地需要理解这些方法。
美国东弗吉尼亚州医学院(EVMS)卫生学院副院长C.Donald Combs博士说,“阅读《新英格兰医学杂志》、《美国医学会杂志》和《自然与科学学术医学》已经不够了。人们没有办法了解所有的最新信息,我们需要制定一种跟上信息变化的策略。”
Combs对东弗吉尼亚医学院(EVMS)的学生表示,“我不得不接受这样一个现实:我们不了解的知识每天都在增加。”
医生们面临着越来越大的压力,他们必须掌握大量的新信息:新的数据、更多的研究以及人工智能方法。医学教育需要让医生们了解,如何从触手可及的大量数据中提取基本信息。
Combs说,“存在着大量的数据,我们的学生不必学习和掌握所有的数据,因为算法可以做到这一点。但是他们必须学会什么是有用的数据,并以不同的方式与患者互动。”
Combs说,“医学生需要学习概率和人工智能中使用的方法。我们有更多的数据和更好的模式识别软件,因此,我们可以用更少的时间进行信息收集,理论上来说,这应该能给我们更多的时间学习传统技能。”
但医生在接受培训时需要理解人工智能输出,并对人工智能方法提出质疑,以避免一些不安全的探索。人工智能技术的持续学习旨在使软件接收新信息,并使用这些信息生成更准确的结果。
因此,系统开始测试输出的边界。例如,随着药物输注速率的提高,机器学习技术将不断吸收新的信息来确定剂量要求,但是不安全的输注速率会产生一些不安全的剂量建议,而机器无法得知这一点。这样的错误可能会伤害患者。
正确的怀疑论将帮助医生避免一些不可预见的情况和自动化偏差。随着人工智能的发展,学习如何识别这些潜在的缺陷和错误将成为医学专业人员必不可少的过程。
人工智能系统有时需要更多的时间和信息才能有效和高效地实现其目标,这就导致了不可预见的情况。这些大量的时间和数据量需求削弱了使用人工智能的好处。例如,自动胰岛素泵在输入每次检查的血糖水平之前,要求患者输入所吃食物的信息,这会使患者感到烦恼,并且与人工智能的易用性自相矛盾。
有时也可能将自动化偏差引入实践。当人工智能系统预测一切正常或证实医生最初的假设时,如果人工智能系统告知医生患者没有任何问题,或者医生的诊断得到了验证,这种自满情绪可能是最强烈的。医生自动信任人工智能的输出,不会质疑结果的准确性。
如果医生没有接受关于如何理解和质疑人工智能输出的适当培训,那么,以上这些错误可能难以避免。
Combs提醒说,由于人们通常不知道人工智能的结果所基于的复杂公式,工具“只是在数据周围漫游,试图去回答一个问题”,这是一个黑盒问题。
黑盒的人工智能可能限制人工智能技术在临床实践中的应用。由于尚不清楚人工智能输出背后的方法,医生无法可靠地评估是否可以在实践中使用。工具方法缺乏透明度,医生就很难理解用于构建工具的数据集是否准确地代表了患者的病情。如果不能代表,人工智能系统的输出结果就可能不准确。但是,如果医生不知道这些信息,就无法确定它是否是一个可靠的工具。
医生需要了解人工智能背后的方法论及其决策能力,以便了解其工作原理、结果如何、如何解释其发现,并能够监督和批判性地检查其结果。
一些人认为,虽然这些问题令人望而生畏,但是最初将人工智能纳入日常实践的努力还是有效的。类似于对新兴电子健康记录的批评,如今电子健康记录(EHR)技术的实施简化了医生的工作流程。
人工智能也可以简化临床工作流程,但在此之前,医生需要先通过培训了解技术缺陷,并了解如何克服这些障碍。
关注大健康Pai 官方微信:djkpai我们将定期推送医健科技产业最新资讯


