加拿大学者:AI在医疗领域大规模应用之前,还面临这些障碍

加拿大多伦多大学的研究人员在7月份发表在《医学互联网研究杂志》的一篇论文中,指出了人工智能在医疗健康领域应用面临的主要障碍。

作者: 派派 来源: 大健康派 2019-08-01 13:30:47

加拿大多伦多大学的研究人员在7月份发表在《医学互联网研究杂志》的一篇论文中,指出了人工智能在医疗健康领域应用面临的主要障碍。


多伦多大学的James Shaw博士及其同事根据NASSS框架比较了人工智能与其他技术的市场渗透率,将机器学习用例分为自动化和决策支持两大类(NASSS是Nonadoption、Abandonment、Challenges to Scale-up、Spread、Sustainability的首字母缩写)。


他们认为,决策支持应用程序将引导自动化,至少在短期内如此。遵循NASSS框架,他们概述了阻碍决策支持人工智能实施的一些主要问题。强调了以下几点:


1.有意义的决策支持


Shaw解释说:“临床决策是一个复杂的过程,涉及各种数据源的整合,其中包括隐性和显性的智能模式。


他补充说,“为了使这个决策过程更加直观,人工智能开发人员正在添加数据可视化等通信工具。这些通信工具的性质和价值是这个过程的核心,有助于确定算法输出能否、以及如何被纳入日常实践。


2.可解释性


医疗健康的人工智能模型如何实现其结果?Shaw及其同事表示,即使对创建它们的计算机科学家来说,也依然无法给出一个明确的解释。


Shaw认为,缺乏对这些机制和环境的理解,这影响了医疗机构等行业的相关者对机器学习的可接受度。他补充说,尽管可解释性看起来与这些决策支持的实际用例有着明确的关系,但实际上,可解释性仍会更多地应用于以自动化为中心的用例,因为自动化在医疗领域的地位正变得越来越突出。


3.隐私问题


Shaw指出,目前缺乏有关正确使用可穿戴设备数据的立法和指导。同时,许多与健康相关的应用程序在使用过程中生成数据流的时候,存在一些不明确的同意操作。


除了这两个明显的问题之外,当与其他数据集链接时,已经取消标识的数据可能被重新标识。他表示:“这些因素为那些寻求将医疗健康数据用于机器学习应用开发的计划带来了重大风险。


4.算法偏差


Shaw认为,算法会受到数据状态的影响。


他说,如果训练的数据是不完整的,或只映射特定人群的子集,则生成的模型将仅仅与数据集当中代表的那部分人群相关。由此提出了关于数据来源的问题,并反映出一系列偏差,这些偏差将会置入用于决策的算法中。


5.可扩展性和面临的障碍


随着人工智能应用在医疗健康领域的迅速发展,一些算法输出不可避免地会混淆、矛盾或以其他方式与其他算法产生对抗。


作者写道,“这种相互作用的影响无法提前预测,部分原因是相互作用的特定技术尚不清楚,可能在常规的护理过程中目前还未出现。我们建议推动人工智能应用的科学家们需要考虑机器学习在医疗健康中实施和扩大可能带来的意外后果,避免为患者、医疗服务提供者、公众的安全造成更大的复杂性和风险。


Shaw和其团队还围绕企业角色,以及医疗健康工作不断变化的性质指出了一些问题。


在总结他们的观察和预测时,Shaw表示,机器学习在医疗健康领域的未来是积极但不确定的。他们认为,在很大程度上,对这项技术的接受和采用取决于医疗机构、患者、服务提供者等所有利益相关者。


Shaw指出,“机器学习的应用变得更加复杂,对数据可视化等方面的投入也在增长,机器学习可能会日益对用户更友好和更有效。如果实施,科学界应该以对所有人有利的方式促进机器学习的采用,那么他们提出的这项问题将在未来几年内得到充分关注。


医疗健康 人工智能 机器学习

关注大健康Pai 官方微信:djkpai我们将定期推送医健科技产业最新资讯