如何让人工智能、机器学习在医疗领域正确地发挥作用?

数据有助于改进医疗系统,但有偏见或偏差的数据可能会产生相反的效果。

作者: 徐红志 来源: 大健康派 2019-07-16 16:47:58

世界卫生组织2019年的主要事项包括健康即人权、卫生保健服务全面覆盖、适当的医疗服务,以及高质量的医疗服务。国际医疗领域对这些主题的探讨也越来越多,并且在继续探索提高人们健康水平的最有效的方式。


数据对于评估这些工作的进展至关重要,而且应该是项目规划和政策制定的核心。在医疗健康系统中,数据可用于改进人类的护理计划,并持续提升质量。然而,尽管获得了大量数据,但获得数据的授权并不容易,也不是常态。


微信截图_20190716164331.jpg


人工智能(AI)和机器学习(ML)正越来越引起人们对这类工作进展的关注。这些技术在改善人类健康方面具有巨大潜力,但数据输入的质量对输出的质量有着至关重要的影响。


此外,使用这些技术也面临着巨大的担忧,比如使用高级分析可能违反道德伦理,这些技术就包括人工智能(AI)和机器学习(ML)。算法可以被教授、被训练,不论是有意无意,都可能会产生偏差或不道德的结果。假设一个算法只使用表示特定人群的底层数据,那么其本身就反映了某些偏差或偏见。


人们想要获得真正的健康,而不仅仅是没有疾病。对每个人来说,医疗保健的公平是必不可少的。医疗保健公平被定义为不同人群在获取医疗保健服务质量时需要消除差异。数据可以成为识别医疗保健领域不公平的有力工具,有助于改进医疗系统,但有偏见或偏差的数据可能会产生相反的效果。


随着这些技术的落地从新颖的尝试到规范性的应用,医疗保健事业的领导者有责任去推广公平透明,且合乎道德伦理的人工智能(AI)和机器学习(ML)。可以从以下三个方面开始:


1.算法透明度——人们需要确认什么样的算法可以尽可能公平?


当人们不知道或无法解释如何得到结果时,人工智能(AI)被认为是一种“黑盒”算法。随着更多的厂商涌入这个不断增长的市场,这类算法不仅备受关注,而且非常普遍。如果人们不知道其得出结果或结论的原理,那么能相信吗?我们如何知道它是否带有偏见,或者说是片面的?


数据沿袭和透明度至关重要。值得庆幸的是,有一些方法可以使医疗保健的公平算法更加透明,例如通过个体结果来审查和验证人口水平趋势。例如,不仅提供风险评分,还要解释哪些数据字段影响了个人风险评分。这种双重评估有助于检测可能无法在大规模的黑盒算法应用中可能无法捕捉到的算法偏差。它提供了一种方法来判断检验结果,而不是盲目地接受。


2.数据透明度——数据透明度有哪些限制?更开放的数据将如何改变人们的洞察力和好奇心?


加利福尼亚州圣贝纳迪诺县前首席卫生信息官兼技术总监Tyrone Smith博士曾在一次对话中探讨了如何使训练算法数据集更加透明,人们如何能够更有效地评估使用的算法道德等问题。他认为,不应该使用“私有”数据来制定“公开”决策的系统。


更明确地说,根据缺乏访问权限的数据做出的决定可能会带来许多问题。随着人们越来越关注数据隐私,让人们更透明地掌握、访问自己的数据,这是一种趋势。


3.自然语言处理(NLP)——NPL如何帮助更多的人识别他们的需求,并用自己的语言评估质量?这对提高公平性有何意义?


医疗保健公平的一个关键问题是尽力确保听到所有声音。不幸的是,传统的结构化数据中没有充分捕捉到许多声音。其结果是,定性数据缺乏丰富的文化、以及人类经验的细微差别。然而,在考虑医疗保健和护理时,人类的经验是非常宝贵的。


虽然定性数据可能很强大,但分析此类数据需要非常耗时和费力的过程,往往意味着其完整价值无法实现。需要采用自然语言处理等新方式创建对这些缺失叙述的访问。


对于早期版本的自然语言处理,如计算语言学,其结果和方法通常很难理解。 然而,在现代自然语言处理(NLP)中,编码和集群过程可以更加自动化。人类仍然必须命名主题,但该技术可以验证单词和短语的关系。使用自然语言处理(NLP)的人工智能系统也可以确保收集到所有声音,甚至是不同语言。


有效利用数据推进发展


科技进步可以促进医疗保健的政策、质量、服务的进步。不过请记住,数据并不是结束,而只是开始,特别是当试图解决医疗保健公平问题的时候。


数据可以帮助确定潜在的优势领域和改善的机会。它还可以引发新的对话,提高公民参与度。无论人们的目标是什么,当采用这些工具时,可以更有效、更合乎道德地使用数据分析、人工智能、机器学习,推动医疗保健行业的发展。


人工智能 机器学习 自然语言处理 医疗 医疗保健公平

关注大健康Pai 官方微信:djkpai我们将定期推送医健科技产业最新资讯