定义人工智能(AI)及其对医疗器械监管的重要性

人工智能的明确定义对政策制定者来说很重要,如果他们想要监管人工智能,他们必须有一个人工智能的定义。例如,如果有人被无人驾驶汽车撞倒,应该清楚谁应该承担责任。如果企业的人工智能设计产品,企业需要知道谁拥有知识产权。

作者: 灵秀巨匠计算机 来源: 灵秀巨匠计算机 2022-05-27 10:58:07

人工智能很难定义。其中一个原因是,我们还没有一个关于什么是智能的坚实概念,更不用说我们想要称之为智能的程序了。甚至专家对人工智能到底是什么也有不同的看法,因为“人工智能”经常被用作多种技术的总称,每种技术都具有不同的特征和操作模式。目前,机器学习是人工智能最新进展的基础工程领域。


这种不确定性让该领域的公司提出了一个基本问题:他们拥有的AI实际上是AI吗?随着法律赶上技术,并制定与人工智能具体相关的规定,这个问题在法律领域将变得越来越重要。我们预计这种情况会发生的法律领域是:专利法,特别是围绕发明人,其中“发明”是由人工智能机器完成的;对医疗设备的监管,其中人工智能的黑匣子性质可以被监管机构视为有问题,他们既希望了解他们正在评估的技术,又希望获得可重复性是确保安全性和有效性一致性的关键;和数据隐私,特别是在必须以特定方式给予同意的情况下-如果人工智能的发展,例如同意不再足够广泛,无法涵盖对个人(通常是敏感的)数据的使用,该怎么办?


人工智能发展的热潮促使欧盟和英国制定了人工智能战略,包括制定监管其部署的法律结构。


了解人工智能是什么将是确定这些预期的法律发展是否适用的第一步。本文讨论了定义,但我们预计政府最终将在编写管理AI部署的新立法时起草自己的定义。


人工智能的一般定义


为了说明可供选择的AI定义范围,下面列出了一些:


“这是制造智能机器的科学和工程,特别是智能计算机程序。它与使用计算机来理解人类智能的类似任务有关,但人工智能不必将自己局限于生物学上可观察的方法“-约翰麦卡锡


“人工智能是一个实体(或一组合作实体),能够从环境中接收输入,解释和学习这些输入,并表现出相关和灵活的行为和行动,帮助实体在一段时间内实现特定目标或目的。–EMERJ(人工智能研究和咨询公司)


"数字计算机或计算机控制的机器人执行通常与智能生物相关的任务的能力。–(brittannica.com)


从概念上讲,这些定义可能有助于公司确定他们的软件是否是人工智能。但它们可以解释,因此不能提供确定性。


人工智能的历史法律定义


寻找人工智能特定定义的公司可能希望转向法律定义。人工智能的明确定义对政策制定者来说很重要,如果他们想要监管人工智能,他们必须有一个人工智能的定义。例如,如果有人被无人驾驶汽车撞倒,应该清楚谁应该承担责任。如果企业的人工智能设计产品,企业需要知道谁拥有知识产权。


但是,法律定义与更一般的定义不同。法律定义是有效的定义:法院必须能够精确地确定一个系统是否被法律视为人工智能。此外,随着技术的不断发展,法律定义也应该捕捉人工智能领域未来的变化。


历史上曾有过几次尝试来确定人工智能的法律定义。


2018年,英国议会将人工智能定义为“能够执行需要人类智能的任务的技术,例如视觉感知,语音识别和语言翻译。在2021年9月22日发布的英国政府国家人工智能战略中,有人指出“人工智能”作为一个术语可能意味着很多事情,政府认识到没有一个单一的定义适合每种情况。一般来说,以下定义足以满足我们的目的:“执行通常由人类智能执行的任务的机器,特别是当机器从数据中学习如何执行这些任务时。



在美国,“人工智能的未来法案”(Future of AI Act)——旨在建立联邦人工智能咨询委员会,但从未颁布过——将人工智能定义为“任何在不同和不可预测的情况下执行任务的人工系统,没有重大的人类监督,或者可以从他们的经验中学习并提高他们的绩效......一般来说,系统在其任务范围内越像人类,就越可以说它使用人工智能。


这些定义定义了人工智能与人类智能的关系,这是一个问题,因为人类智能本身很难定义。加州大学伯克利分校(University of California,Berkeley)人工智能和机器学习领域的领先研究员迈克尔·I·乔丹(Michael I.Jordan)指出,模仿人类思维并不是机器学习的唯一目标,机器学习可以起到增强人类智力的作用。他说:“在讨论技术趋势时,人们对人工智能的含义感到困惑-计算机中存在某种智能思想,负责进步,并与人类竞争。我们没有,但人们正在谈论,好像我们有。[注3]


2019年,英国人工智能办公室发布了人工智能的不同定义:“使用数字技术创建能够执行通常被认为需要智能的任务的系统。


这个定义提出了一个问题,即当任务不再“通常认为”需要智能时,未来会发生什么。


请注意,英国政府还在《国家安全和投资法》中规定了人工智能的法律定义:


为第(2)款所述目的开展活动的合格实体,其中包括:(a)人工智能研究;(b)人工智能研究;(c)人工智能研究;或(b)开发或生产使用人工智能的商品,软件或技术。2.目的是:(a)识别或跟踪物体、人物或事件;(b)先进的机器人技术;(c)网络安全。


“人工智能”系指能够对设备或软件进行编程或训练的技术,以便:(一)通过使用数据来感知环境;(ii)使用旨在近似认知能力的自动化处理来解释数据;(iii)提出建议、预测或决定;以期实现具体目标。[注4]


人工智能的这一定义被缩小到专注于三种高风险的应用。在考虑定义的目的时,这是有道理的:确保公司确定是否需要根据该法案进行强制性通知的清晰度。然而,这也意味着该定义将无法捕获所有人工智能,因此其对使用不会对国家安全构成风险的其他部门的适用性有限。


欧盟人工智能法规草案


2021年初,欧盟委员会提出了有史以来第一个人工智能监管框架,我们在这里的文章中对此进行了讨论。人工智能法规草案包括一套拟议的规则,旨在就人工智能的具体用途提供明确的要求和义务。欧盟委员会试图考虑到人工智能的快速发展性质,承诺该法案将提供“一个面向未来的人工智能定义”。


该法规草案将人工智能定义为“使用附件一中列出的一种或多种技术和方法开发的软件,并且对于一组给定的人类定义的目标,可以生成诸如内容,预测,建议或影响其交互环境的决策之类的输出。


附件1列出了机器学习方法,逻辑和基于知识的方法以及统计方法。欧盟的提案指出,通过提及附件一,委员会将能够调整附件,以配合市场发展过程中的新技术发展。与上面讨论的英国和美国的定义不同,这个定义回避了对“人类智能”的提及,并试图涵盖未来的事件。


然而,这一定义非常宽泛:问题在于,像条例所提议的一般法律那样的法律是否会过于宽泛,以至于变得无效。这个定义在捕获所有人工智能方面的有效性还有待观察,特别是与尚未发明的未来技术有关,因此尚未在所涵盖的列表中设想。附件1的内容可能会在磋商阶段进行审查。


我们是否需要对AI进行具体定义?


上面已经讨论了制定法律定义的理由,但为人工智能提出一个包罗万象的定义已被证明是很困难的。


更好的方法可能是研究法律可能需要干预的AI周围的环境。正如Turner(2019)所说,政策制定者不应该问“什么是人工智能?”,而应该问“为什么我们需要定义人工智能?根据Casey和Lemley(2019)的说法:“我们不需要规则来决定具有某些自主功能的汽车是否是机器人。我们真正需要的是规范不安全驾驶行为的规则。人们担心,人工智能的监管是否应该像欧盟法规草案提出的定义一样广泛,还是应该缩小范围,逐案考虑行业。


这是因为人工智能在金融领域的影响将与医疗保健领域截然不同,如果监管不当,可能会有生死攸关的后果——回到无人驾驶汽车的例子,人工智能医疗设备的责任必须明确。该法规草案触及了这个问题,因为包含AI的医疗设备被认为是一个高风险系统。


考虑人工智能特殊特征的强大监管框架对于确保包含人工智能的医疗设备的安全性至关重要。医疗器械目前受《2002年英国医疗器械法规》和欧盟《2017/745医疗器械法规》的保护,重要的是要考虑在现有框架下执行,因为所有医疗器械都存在一些固有的风险。然而,具有AI的医疗设备是一种特殊类型的医疗设备,具有必须考虑的独特风险。例如,正如MHRA医疗器械咨询文件中所考虑的那样,未来的法规可能要求对用于诊断的人工智能医疗设备进行科学有效性的监控,以确保它们提供的实际输出与预期提供的内容相关。这是其他医疗设备可能不需要的监控。


因此,人工智能监管和医疗器械监管这两个制度必须共同努力,确保用人工智能和其他医疗设备监管医疗器械不会导致执法不明确或制度形式的差距-或者执法重复-发生分歧。这些风险目前尚未在欧盟对人工智能的广泛定义下考虑。虽然该定义的目的是最终以全球公认的方式定义人工智能,但需要为实施该法规提供行业特定的指导,以就该定义将如何具体影响包含AI的医疗设备的监管提供更清晰的立场。


开发医疗保健领域人工智能应用的公司,无论是医疗设备还是其他用途,都需要跟上正在转变的监管制度,并可能制定新开发产品可能适合也可能不适合的具体定义。


关注大健康Pai 官方微信:djkpai我们将定期推送医健科技产业最新资讯