威廉希尔中国官网_威廉希尔亚洲官方网站-NBA赛事投注

理论广场

您现在的位置: 网站首页 > 正文
李润生:论医疗人工智能的法律规制 ——从近期方案到远期设想
来源: 发表时间:2020-09-01 12:40:30字体大小:

李润生 | 论医疗人工智能的法律规制 ——从近期方案到远期设想

作者简介:李润生,北京中医药大学人文学院法律系讲师

文章来源:载《行政法学研究》2020年第4期

内容提要:人工智能在医疗领域已有较为广泛的应用,且仍在快速发展。医疗也是最适合人工智能发展和应用的领域之一。我国应明确医疗人工智能的监管范围和方式,建立适于人工智能发展的法律规制体系。近期来看,医疗人工智能仍属辅助性工具,在准入时尚无必要确保其可解释性,但应将医疗人工智能的使用纳入知情同意程序,厘清产品责任和医疗过失侵权责任的适用关系,以人类医生的医疗水平设定注意义务,并明确具体情境下过失的认定方法。远期来看,医疗人工智能将逐步在部分医疗领域内替代人类医生,享有决策主导权,此时应确保医疗人工智能的可解释性,要求医疗人工智能进行服务前的专项资质认定,建立医疗人工智能的复数决策机制,设定统一的注意义务标准,并确保人类的必要参与。

关键词:人工智能医疗;近期方案;远期设想;法律规制;技术黑箱

导言

人工智能(Artificial Intelligence,以下简称AI)和医疗的结合被认为是AI应用最具前景的领域之一,医疗AI可以辅助医生提高诊断治疗的精度和效率,可以为患者提供更加个性化的治疗方案,可以降低药物研发成本并促进新药的发现,可以帮助患者实现健康的自我监测和管理等等,甚至于在未来,医疗AI将替代人类医生成为独当一面的医疗服务提供者。从某种意义上说,医疗也是最适合AI应用和发展的领域之一,因为在这个领域内,“我们习惯于把健康甚至生命托付于我们并不完全理解的药品或设备,也就是说,当涉及医疗时,我们更容易信任我们并不完全理解的东西”,而“黑箱属性”(black box nature)所带来的不信任正是AI推向实际应用的最大障碍。

医疗AI在带来各种便利的同时,也蕴藏着各种风险,冲击着既有规则体系。如何对医疗AI的风险进行有效管控?如何确保适度监管以避免妨碍创新?如何建立适应于医疗AI的法律规制体系?世界各国均在探索之中。美国国会于2016年通过了《21世纪治愈法案》(21st Century Cures Act),其核心目标之一就是厘清美国食品药品监督管理局(Food and Drug

Administration,以下简称FDA)对于包括医疗AI在内的数字医疗产品的监管权限。2018年,FDA针对医疗AI启动了数字医疗软件预认证计划(the Digital Health Software Precertification Program,即Pre-Cert),旨在适应创新医疗设备的迭代速度。欧盟正在对其《医疗设备指令》(the Medical Device Directive,MDD)进行调整,但尚未建立起能够充分应对医疗大数据、网络安全和人工智能风险的法律框架。我国国家卫生和计划生育委员会于2017年发布了《人工智能辅助诊断技术管理规范》(以下简称《辅助诊断规范》)和《人工智能辅助治疗技术管理规范》(以下简称《辅助治疗规范》),旨在规范医疗AI的临床应用,国家药品监督管理局也于2018年对《医疗器械分类目录》进行了修订,对医用软件进行了更细致的分类。虽然到目前为止,各国尚未取得确定统一的答案,但国外的尝试和探索对我国具有重要的启示意义。

本文将立足于医疗AI的应用现状,参鉴国际经验,探讨我国医疗AI的应然监管范围和方式,并在此基础上提出医疗AI的近期规制方案,最后根据医疗AI发展的合理设想,提出远期规制方案。

一、医疗AI的应用现状及监管范围和方式的探讨

(一)医疗AI的应用现状

目前来看,医疗AI的应用非常广泛,涉及诊断、治疗、药物开发等诸多领域。

1.诊断领域

医疗AI在诊断领域已有不少进展,尤其在医学影像识别上取得了令人惊喜的突破。据研究,医疗AI在糖尿病视网膜病变、肺癌、乳腺癌、阿兹海默症等疾病的影像检测上已经达到非常高的准确率,有些甚至已超过人类医生。美国2018年批准的全球首款医疗AI检测系统IDx-DR,可用于检测糖尿病视网膜病变,其准确率已接近人类医生;谷歌旗下DeepMind AI通过3D扫描可以识别50种左右的眼科疾病,准确率已达94%。国内腾讯觅影对结直肠息肉的实时定位准确率已达到96.93%,实时鉴别是否腺癌的准确率达到97.20%。医疗AI在皮肤病和罕见癌症的诊断上也有重大突破。在黑色素瘤的诊断上,谷歌研发和训练的医疗AI比58名国际皮肤病学专家的漏检和误诊率更低。

2.治疗领域

医疗AI在治疗领域最成功的应用当属手术机器人。手术机器人集合人工智能、器械运动控制等技术,能够在狭小手术空间内提供超越人类的精密度和灵活度。达芬奇手术机器人是目前世界上最为先进的微创外科手术系统之一,集成了三维高清视野、可转腕手术器械和直觉式动作控制三大特性,使医生可将微创技术更广泛地应用于复杂的外科手术。达芬奇手术机器人在美国和欧洲大部分国家的医院系统已被广泛使用。在国内,截至2017年3月,达芬奇手术机器人已装机62台。中南大学湘雅三医院已率先开展国产手术机器人胃穿孔修补术及阑尾切除术。医疗AI还可辅助医生制定个性化的治疗方案,IBM的Watson系统允许将患者与临床实验者的数据进行匹配,并通过对患者历史数据的分析,协助肿瘤科医生制定个性化治疗方案。

3.其它应用领域

医疗AI在药物研发、健康管理、医院管理等方面也有不少应用。例如,在新药研制过程中,医疗AI可对较有可能成为药物的化合物进行虚拟高通量筛选,预测化合物的活性,同时在临床试验阶段,医疗AI可对受试者进行精准挖掘,对疾病数据进行深度研究,从而大幅缩减药物研发时间、降低研发成本。各种可穿戴医疗设备可以帮助患者进行健康监测和管理,以色列创业公司Healthy.io为肾病患者提供了家用尿液检测产品,结合手机App、检测套组及AI算法,在家即可完成尿液的图像识别和检测;美国创业公司SkinVsion利用手机摄像头采集皮肤影像,经过AI演算即可评估用户患皮肤癌的风险。

(二)关于医疗AI监管范围和方式的思考

医疗AI属医疗器械的范畴,传统上,大部分医疗器械上市前需经过严格的临床试验和注册程序,主要是为了确保安全、有效。我国《医疗器械监督管理条例》将医疗器械分成三类,即第一、二、三类医疗器械,风险依次增加,除第一类医疗器械实行备案管理外,第二、三类医疗器械必须进行产品注册,注册时须提交临床试验报告,经监管机关组织技术评审后,方可注册上市。整个流程下来,短则几年,长则十几年甚至几十年。而且,若已注册医疗器械的设计、原材料、生产工艺、适用范围、使用范围等发生实质性变化,须再次进行注册。但是,医疗AI范围广泛,风险迥异,其特性可能也不适于传统的监管方式。例如,和普通医疗器械不同,医疗AI始终处于变化之中,在训练和实践中不断学习和进化,更新迭代速度很快,即使经过注册,监管效果也相当有限。那么,是否应当把所有的医疗AI都纳入传统监管框架呢?是否可以运用变通的监管方式以避免阻碍AI创新呢?

笔者认为,首先,只有涉及核心医疗领域的医疗AI才有必要纳入传统监管框架。何为核心医疗领域?简单来说就是诊断和治疗领域,这是医疗的本质,也是各国监管的重心。本文主要探讨此种意义下的医疗AI。诊断和治疗之所以需要进行特殊监管,是因为它具有较高的人身危险性,需要由专业人士操作以管控风险。诊断、治疗之外的领域风险相对较小,此类医疗AI不应纳入传统监管框架。这在国外已有立法例可循。针对FDA对医疗AI产品监管范围的困惑,美国《21世纪治愈法案》明确指出,如果一个AI产品并不提供诊断或治疗服务,并不给出明确的诊断结论或具体的治疗方案,而只是提供健康监测、咨询等服务,这类产品并不属于FDA的监管范围。在该法案下,协助进行医院管理、电子病历书写、资料存储、个人健康管理甚至提供有限的临床辅助决策支持的AI软件不再被视为医疗器械。

其次,即使属于核心医疗领域的医疗AI,也可在评估风险后,豁免其临床试验或注册程序,或加速进行审批。诚如前述,医疗AI迥异于普通医疗器械,片面适用传统监管方式只会抑制创新。美国《21世纪治愈法案》允许FDA将风险较低的医疗AI归类为第一、二类医疗器械,或将其由第三类医疗器械调整为第一、二类医疗器械,从而豁免注册,鼓励创新。2017年7月,FDA发布数字健康创新计划(DHIAP),降低医疗AI的市场准入门槛,如将“计算机辅助医疗影像中可疑癌症病变识别”的医学影像软件从第三类医疗器械调整为第二类医疗器械;2018年,FDA启动了数字健康软件预认证计划(Pre-Cert),明显加快了对低风险医疗AI产品的审批速度,自该计划实施以来,FDA相继批准了IDx-DR、OsteoDetect等9款医疗AI产品。

二、医疗AI法律规制的近期方案

本部分将结合医疗AI的近期发展状况探讨其法律地位和规制策略。

(一)医疗AI的法律地位

根据信息科学的主流观点,人工智能可分为强人工智能(又称通用/广义人工智能,Artificial General Intelligence,AGI)和弱人工智能(又称狭义人工智能,Artificial Narrow Intelligence,ANI):前者具备近似甚至超越人类的智慧;后者与人类智慧尚有差距,只能完成某些特定的任务。近期来看,医疗AI并非要替代人类医生,只是辅助医生工作,主导权仍掌握在人类医生手中,主要目标是通过人机协作提升医疗的准确率和效率,例如,在淋巴细胞X射线图像诊断方面,医疗AI的错误率为7.5%,人类病理学家的错误率为3.5%,人机合作的错误率则降低至0.5%。《辅助诊断规范》和《辅助治疗规范》显然也是将医疗AI定位为辅助性的诊断和治疗系统。总之,近期内,医疗AI仍属弱人工智能的范畴,是医疗器械,是物和产品。

(二)医疗AI的前端准入策略

关于医疗AI的准入,诚如前述,切忌一刀切,宜将部分风险较小的医疗AI归类为或调整为第一类医疗器械,实行备案管理,或者豁免临床试验,或者加速审批流程。目前来看,阻止医疗AI临床应用的最大障碍其实在于“黑箱属性”,这导致医疗AI的决策过程缺乏透明度,引发担忧。

AI的“黑箱属性”是指其输入和输出均是可见和可理解的,但从输入到输出的过程则缺乏透明度。当下AI学习的主要方式为机器学习(Machine

Learning,ML)——深度学习(Deep Learning,DL)为机器学习的一种形态,它是基于数据而非规则,通过对大量数据的分析,自行设定或调整算法,没有人告诉AI应该怎么做,它在实践中自主学习、自行判断,其间处理的数据量极其庞大、运算过程极其复杂,即使对于它的设计者来说也难以理解。医疗AI的“黑箱属性”导致人类监督的困难——AI发生的错误很难被发现。在2017年发布的一项针对CEO的调查中,76%的受访者认为缺乏透明度是阻止他们采用AI技术的两大原因之一。那么,我国在医疗AI的准入管理中是否必须加入可解释性标准呢?

笔者认为,近期而言,并无必要。首先,医疗AI目前只是辅助性工具,主导权仍掌握在人类医生手中,风险可控;其次,短期内攻破医疗AI的“技术黑箱”难题并不现实,过度强调“科学理解”(Scientific Understanding)只会阻碍医疗AI的应用和发展;再次,医疗领域并不缺乏使用“无法科学解释”的药品或医疗器械的先例,这可能也是在医疗领域推广AI的重要优势,例如,我们经常使用的小儿退烧药泰诺(乙酰氨基酚),到目前为止,我们仍不清楚这款药物具体是如何发挥作用的,但如果儿童发烧,我们仍会毫不犹豫的去药店购买它,其他药物如肌肉松弛剂美沙隆、糖尿病药物二甲双胍、止咳药桂芬内斯等也是类似的情形;最后,除了“科学理解”之外,我们还有其他替代手段可以尽可能的降低风险,例如,进行长期的跟踪监测,及时发现和警示风险;对AI的初始程序进行伦理审查,要求以患者利益为最高设计原则。

(三)医疗AI的中端审查策略

1.关于实施知情同意程序的探讨

知情同意(Informed Consent),是指患者在获得医师提供其医疗决定所必需的足够信息的基础上,做出医疗同意的过程患者知情同意权由知情权和同意权共同组成,前者是后者的基础,后者是前者的延伸。知情同意权是患者自决权的重要体现,各国法律均予确认。那么,我国是否应当把医疗AI的使用纳入知情同意的范畴呢?

就目前医疗AI的发展水平来看,其并不总是正确的,仍有一定风险。麻省理工学院的研究人员在2015年针对手术机器人的临床应用研究发现,因机器人本身原因导致的死亡病例共144起,伤害病例则高达1391起,而且,越是复杂的手术,AI出错的概率越大。医疗AI还经常会犯常识性错误。国内手术机器人不良事件也时有发生。

此外,患者对于医疗AI直接介入诊断治疗领域仍较为排斥。据调查,国内患者更能接受的医疗AI应用场景是挂号、缴费、查询体检报告等医疗后勤环节,接受率达到84.53%,而对于医生使用AI进行诊断和治疗,接受率则仅为3.59%;在诊断、治疗环节,医疗AI介入的程度越高,患者的接受度越低。在国外也是类似的情形。美国2018年发起的一项调查发现,患者和医生目前对医疗AI仍缺乏信任,普遍比较谨慎,而且医生比患者更加不信任和排斥AI技术。

综上,笔者认为,我国应将医疗AI的使用纳入知情同意的范畴,保障患者自决权,越是复杂的诊断和治疗,越应进行详尽的披露并征得患者同意。

2.关于调整上市后管理机制的探讨

我国在2019年引入上市许可持有人(Marketing Authorization

Holder,以下简称MAH)制度后,医疗器械的上市后管理体系日趋完善,责任主体更加明确,MAH成为医疗器械上市后的首要责任人,负有广泛的义务,包括:主动开展上市后研究,定期开展上市后评价;主动监测医疗器械的不良反应;在医疗器械存在质量问题或其他安全隐患时,及时采取召回措施;建立年度报告制度,每年将医疗器械生产销售、上市后研究、风险管理等情况向主管部门报告等。

但是,和传统医疗器械不同,医疗AI在不断地学习和进化,风险也处于持续变化之中,而且,AI对医疗的影响更加广泛而深远,“机器学习中的算法错误可以在短时间内伤害众多患者”。因此,针对医疗AI,在现有上市后管理体系的基础上,我国应进行适当调整:首先,应增加定期报告的频次,可考虑设立季度报告甚至月度报告机制;其次,应设定更加严格的产品召回机制,严格限定召回时间和数量;最后,应设定不良事件严格评估制度,除非找到确切的可解释的原因,不得重新上市,即使这非常困难。

(四)医疗AI的后端规制策略

本部分主要探讨医疗AI使用情境下民事责任的分配和认定,这对于我国医疗AI的发展具有重要的导向意义。行政责任、刑事责任均可在此基础上推演。

1.产品责任和医疗过失侵权责任的适用

作为医疗器械,医疗AI在使用过程中主要涉及两类责任,即产品责任和医疗过失侵权责任:前者以产品缺陷为归责依据,以MAH、生产者、销售者、仓储者、运输者等为责任主体,后者以医生和医院的过错为归责依据,以医院和医生为责任主体。在医疗AI的使用场景下,两类责任可能交错混合,具体认定时关键在于辨别因果关系,包括三种情形:(1)纯粹由产品自身缺陷导致的损害,适用产品责任规则;(2)纯粹由医生操作失误或医院管理失误导致的损害,适用医疗过失侵权责任规则;(3)产品缺陷和医生操作失误或医院管理失误共同导致损害发生时,则首先进行原因力的分配,再分别适用产品责任规则和医疗过失侵权责任规则。

2.产品责任的认定

产品责任认定的关键在于产品缺陷的认定。一般认为,产品缺陷包括设计、制造、警示和跟踪观察四类缺陷。医疗AI亦是如此。不过,医疗AI是软硬件的结合体,有的甚至是纯粹的软件,软件(尤其是算法)具有支配性地位,应当更加重视软件层面缺陷的认定。然而,医疗AI的“黑箱属性”让缺陷认定更加困难,故笔者建议我国应尽快出台医疗AI产品的国家标准或行业标准,以便于缺陷认定。

3.医疗过失侵权责任的认定

医疗过失侵权责任认定的关键在于医疗过失的认定,而过失认定的关键则在于注意义务标准的确定。我们通常采用“理性医生”(Reasonable Physician)标准,也就是说,以其他具有相同或相近专业的医生在相同或相似情形下的注意程度为标准,“医师之行动应被期待在其所属同一或类似阶层中,能担负一个合理且有能力之医师所被期待之注意及技术之义务,其证据应包括地域性、设施利用可能性、一般业务或专门业务、专科医师或全科医师等事项”。

在医疗AI的使用情境下,问题则在于,是否应当将AI所能达到的医疗水平融入“理性医生”标准之中?笔者认为,我国近期并不应该把医疗AI因素纳入一般性标准。首先,短期内,AI对医疗过程只起到辅助作用,医生仍居主导地位,诊断和治疗仍是医生基于其从各方面获得的信息作出决策的过程;其次,总体来看,医疗AI的水平和能力尚未超越人类医生。但是,在具体进行过失认定时,我国法院需结合个案案情并考量特定领域内医疗AI的发展水平和应用状况综合判断。具体来说,主要包括两种过失情形:

第一,应当使用而没有使用医疗AI的情形。在特定领域内,当医疗AI的发展程度较高、应用较为普遍且逐步成为行业惯例时,医生应当使用却没有使用医疗AI而致诊疗错误,则可认定医生和医院存在过失。例如,在放射医学影像领域,由于素材和流程的标准化,医疗AI的准确率已非常高,可以预见,医疗AI未来将成为放射科医生分析、识别影像必不可少的工具,这种惯例一旦形成,将成为具有法律约束力的合理期待。这就是所谓的“公认的医疗实践”(Accepted Medical Practice)规则,这被视作重新评估注意义务程度的起点(Tipping Point),特别是当设备或技术的应用并不需要耗费巨大成本时。

此外,即使医疗AI的使用尚未在特定医疗领域内形成惯例,但为维护患者的健康利益,法庭也可能将其设定为义务。这反映了司法裁判引导新技术运用、提升公众健康利益的能动性。在著名的Burton v. Brooklyn Doctors Hospital案中,虽然当时的传统观点认为对早产儿给予纯氧护理至关重要,但法庭认为,医院不可以“公认的医疗实践”规则进行抗辩,因为包括他们自己的研究在内的许多最新研究已经表明,增加氧气是不必要且危险的,据此认定医院存在过错。随着医疗AI的迅速发展,医生将不能再简单的依赖“公认的医疗实践”规则进行抗辩,而应不断监测技术的最新进展,以确定最安全和最有效的诊疗方案。正如学者所言,现在的问题并不在于“如果我们使用医疗AI,谁将承担责任”,而是“如果不使用医疗AI,我们将在多久内承担责任”。当然,打破“公认的医疗实践”规则需要综合考量多种因素,这主要包括医疗AI的学术发展水平、医疗AI的可及性和使用成本、提升公众健康的必要性,等等。

第二,医疗AI使用过程中出现过失的情形。这可分为两种情形:一种是不应当使用而使用医疗AI的情形。根据医疗AI的适应症、禁忌症及患者的具体症状,不适于使用医疗AI却疏忽大意或过于自信而使用的,则构成过失。国外已有类似案例发生。美国2013年发生的Taylor v. Intuitive Surgical一案中,达芬奇手术机器人实施手术的最大推荐BMI(Body Mass Index,身体质量指数)是30,而记录显示患者的BMI已达到39,并不适合使用达芬奇机器人进行手术,但医生仍然选择使用,最终导致损害发生,法庭认定医生存在明显过失。另一种是应当使用但在使用医疗AI的过程中发生操作失误的情形仍以前述案例为例,若患者BMI为25,适合使用达芬奇手术机器人进行手术,但医生在使用机器人的过程中违反了操作流程,从而导致损害的发生,则此时医生负有过失。

三、医疗AI法律规制的远期设想

AI技术正在飞速发展,通用人工智能(AGI)的出现可能只是时间问题。根据英国开展的一项针对AI领域专家的调查显示,一般认为将有过半机会在2040-2050年左右开发出高度人工智能,而近九成的受访者认为,在2075年之前必定可以实现此目标。循此逻辑,医疗AI未来将在很多领域独当一面,替代人类医生,在决策过程中占据主导地位,医疗领域将呈现出人类医生和医疗AI既相互协作又相互竞争的局面。笔者认为,医疗AI替代人类医生至少应具备以下条件:其一,诊断治疗的准确性超越人类医生;其二,具有顺畅的自然语言沟通能力;其三,能够体会患者情感并做出适当反馈,能够逐步建立信任,而不再只是冷冰冰的机器。因为医疗过程不只是简单的技术过程,沟通和信任极其重要,研究表明,信任对治疗过程和结果有重大影响,信任是心理-身体互动中的关键因素,“那些信任自己的药物和治疗措施的患者将获得更好的疗效,虽然这看上去无法解释”。面对未来的新局面,我国医疗AI的法律规制策略应适当调整,下文将基于此展开讨论。

(一)医疗AI的法律地位

即使未来医疗AI在我国能够替代人类医生进行诊断治疗活动,笔者认为,医疗AI仍然属于物和工具的范畴,属于产品和医疗器械。无论何时,只要人类仍然是这个世界的主导,就有两个领域永远不可能完全让渡权力:一为司法,二为医疗,前者关乎社会的秩序和安全,后者关乎个人的健康和安全。因此,医疗AI替代人类医生并非完全意义上的替代,人类的监督和参与仍必不可少。而且,完全由AI提供医疗服务,将会形成封闭循环(Closed Loop),进而导致严重后果:医疗AI训练和验证的数据集是其自身决策的结果,医学知识处于平行循环之中,人类将失去发现新的、更好的治疗方法的能力,人类的医疗技能也将逐渐衰退。

此外,将医疗AI定位为物,并不妨碍我们在特定目的范围内赋予其拟制人格,以便利人类的生产生活,我们也曾基于类似的目的赋予公司、船舶、寺院等以法律人格。有学者建议未来赋予AI以有限的法律人格或电子人格,欧盟议会法律事务委员会(JURI)发布的研究成果《欧盟机器人民事法律规则》(European Civil Law Rules in Robotics)也建议赋予最先进的AI以“电子人”法律地位,但这都是为实现特定社会目标而进行的法律拟制,前提都是承认AI是物而非人。医疗AI在未来也有必要在某些情境下获得法律人格,例如,申领医疗执业资格、损害赔偿、保险的购买和理赔等。

(二)医疗AI的前端准入策略

作为医疗器械,医疗AI首先应当履行必要的注册和备案程序,即使它已经高度智能化了。而且,AI提供的是医疗服务,应当进行医疗服务能力的认定,正如人类医生需要申领《执业医师资格证》一样。“如果医疗AI要作为独立主体进行诊断或治疗等活动,为了保证医疗水准以及医疗安全,就应当像人类医生一样,获得相关的行医资格。”医疗器械注册或备案与医疗服务能力认定具有不同的面向:前者主要是验证产品的安全性和有效性;后者则重在考察提供医疗服务的技术能力、沟通能力、协作能力和职业操守等综合素质。当然,对于医疗AI,我国未来可考虑将二者合一,以避免程序繁琐。

应当指出,不同医疗领域差别很大,对AI的要求殊为不同,AI技术的适应性和发展程度也会有差异。因此,笔者认为,未来我国医疗AI的资质认定应当细分到医疗科室层面,例如放射科、骨科、胸外科、脑科、耳鼻喉科等,属专项资质认定,医疗AI进入特定服务领域前,必须先获得相对应的资质,当然,它可以申请多个资质。这和人类医生不同,除个别情况外(如口腔科),《执业医师资格证》不会细分到具体科室,属综合资质认定。这也体现了人类学习和机器学习的不同:人类医生在获得基础知识后,在实践中逐步发展出专业特长,由面到点,由全到精,这是人类学习的特点;AI则首先以某个或某类疾病为切入点,不断训练和学习,提高准确率和效率,再慢慢横向拓展,由点到面,这是机器学习的特点。这也是AI提供医疗服务更加稳妥的路径。

此外,关于医疗AI的可解释性问题,笔者认为,获得特定医疗领域资质的AI已经具有决策主导权,因此必须确保决策过程的可解释性,绝不可让人类的生命健康陷于不可知的危险之中,这也是确保人类有效监督的前提。而且,破除医疗AI的黑箱难题,在未来应当也是可能的。目前已有不少尝试。例如,谷歌公司最近宣称,其开发人员成功破解了医疗AI系统通过扫描CT诊断眼科疾病的机理;美国国防高级研究计划局(Defense Advanced

Research Projects Agency,DARPA)早在2016年就启动了“可解释人工智能计划”(Explainable Artificial Intelligence Initiative),该计划希望能将AI作出决定的过程转变成人类可理解的形式,虽然目前还不知道何时才能实现AI广泛的可解释性。另外,医疗AI的可解释性只需达到专家理解的程度便可——注册认证阶段的专家审核,无须公众理解,这也是我们在医疗器械领域一直坚持的标准。

(三)医疗AI的中端审查策略

为进一步确保安全和准确,建立医疗AI的复数决策机制可能是一个不错的选择。也就是说,对于同一患者的同一病症,至少应由两个以上的医疗AI作出相同或类似的决策。技术上一般认为,编码类型不同的AI犯同样错误的概率极低。因此,在医疗AI主导医疗决策的场景,复数决策机制可以在很大程度上避免错误。而且,比之于人类医生,这在成本上更加可控。如果多个医疗AI的决策发生分歧,此时可设置一个绝对多数的表决通过比例(如3/4、4/5),并应由人类医生进行验证复查,以最大限度地降低风险。

另外,在AI提供医疗服务的场景,人类的参与仍是必要的,只是角色和身份发生了变化,人类将主要承担以下职责:喂投数据,确保数据的真实、准确和完整;审查算法,避免歧视和偏见;实时监督运行状况,防止意外发生;在AI之间发生意见分歧时,进行验证复查;必要时否决AI做出的决策等。“医疗AI决策—医生监督复查”成为医疗的常见形态,人类有意义的参与将成为监管底线,虽然这会在一定程度上增加成本,但却是可接受的代价,正如“早已实现自动驾驶的大型飞机上仍强制要求配备人类飞行员”一样。

(四)医疗AI的后端规制策略

医疗AI提供医疗服务时,仍会同时存在产品责任和医疗过失侵权责任,和近期方案中的逻辑基本一致,主要区别在于医疗过失的认定标准和医疗过失的具体情形。

在医疗过失的认定标准方面,此时应将混合人类医生和医疗AI的平均医疗水平作为注意义务的标准,也就是说,人类医生和医疗AI适用同样的标准,以患者健康利益为最高指针,公平竞争,优胜劣汰。如果医疗AI达不到统一的注意义务标准,则其管理者和监督者构成过失;如果人类医生达不到统一的注意义务标准,则其本人及所属医院构成过失。

在医疗过失的具体情形方面,笔者认为,医院的过失主要有两种情形:其一为选任过失,主要包括在特定医疗领域内应当选用医疗AI而选任人类医生;应当选任人类医生而选用医疗AI;选任不适合或者未获相应资质的医疗AI等。其二为管理过失,例如,对医疗AI缺乏管理,不符合法律设定的监管要求,未设立科学合理的管理体制等。由于身份和职责的转变,人类医生的过失将主要表现为监督失职或缺乏合理依据否决医疗AI的决策等。

结语

医疗AI在诊断、治疗等领域已有较为广泛的应用,而且仍在快速发展。为避免抑制创新,我国应明确医疗AI的监管范围和方式:只有涉及诊断、治疗领域的医疗AI才应纳入传统监管框架,即使是核心医疗领域内的AI产品,也可根据其风险程度豁免其临床试验或注册程序,或加速审批流程。

近期来看,医疗AI仍属辅助性工具,主导权掌握在人类医生手中。基于此,就我国而言,在前端准入阶段,尚无必要确保医疗AI的可解释性;在中端审查阶段,应将医疗AI的使用纳入知情同意程序,并对医疗AI的上市后管理机制进行适当调整;在后端规制阶段,应厘清产品责任和医疗过失侵权责任的适用关系,尽快出台医疗AI的国家标准或行业标准,并以人类医生的医疗水平作为过失认定的一般性标准,明确具体情境下的过失认定方法。我国应据此对《辅助诊断规范》和《辅助治疗规范》等相关法律文件进行调整,并通过司法解释将前述规则和理念纳入裁判体系。

远期来看,医疗AI虽仍属物和医疗器械的范畴,但其将逐步在部分医疗领域内替代人类医生,享有决策主导权。基于此,就我国而言,在前端准入阶段,应确保医疗AI的可解释性,并要求其在提供服务前进行相应的资质认定;在中端审查阶段,应建立医疗AI的复数决策机制,并确保人类的必要参与;在后端规制阶段,应将混合人类医生和医疗AI的平均医疗水平作为注意义务的标准,以患者健康利益为导向,鼓励公平竞争。


威廉希尔中国官网

威廉希尔中国官网公众号
Copyright© 威廉希尔中国官网_威廉希尔亚洲官方网站-NBA赛事投注 All Rights Reserved.
地址: 中国山东省济南市解放东路63号 联系电话:(86)-531-88599878
鲁ICP备 10007285号 技术支持:网络信息中心