可解释人工智能医疗应用的伦理问题-.docx

上传人:王** 文档编号:906421 上传时间:2024-02-27 格式:DOCX 页数:13 大小:25.70KB
下载 相关 举报
可解释人工智能医疗应用的伦理问题-.docx_第1页
第1页 / 共13页
可解释人工智能医疗应用的伦理问题-.docx_第2页
第2页 / 共13页
可解释人工智能医疗应用的伦理问题-.docx_第3页
第3页 / 共13页
可解释人工智能医疗应用的伦理问题-.docx_第4页
第4页 / 共13页
可解释人工智能医疗应用的伦理问题-.docx_第5页
第5页 / 共13页
可解释人工智能医疗应用的伦理问题-.docx_第6页
第6页 / 共13页
可解释人工智能医疗应用的伦理问题-.docx_第7页
第7页 / 共13页
可解释人工智能医疗应用的伦理问题-.docx_第8页
第8页 / 共13页
可解释人工智能医疗应用的伦理问题-.docx_第9页
第9页 / 共13页
可解释人工智能医疗应用的伦理问题-.docx_第10页
第10页 / 共13页
亲,该文档总共13页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《可解释人工智能医疗应用的伦理问题-.docx》由会员分享,可在线阅读,更多相关《可解释人工智能医疗应用的伦理问题-.docx(13页珍藏版)》请在优知文库上搜索。

1、可解释人工智能医疗应用的伦理问题*江蜻,曹东,鄢来均(1广州中医药大学马克思主义学院,广东广州510006;2广州中医药大学医学信息工程学院,广东广州510006;3广州中医药大学研究生院,广东广州510006)0引言可解释人工智能已成为学术界、产业界和政府部门研究的热门话题。全世界范围内都在积极探索可解释性的人工智能,例如2022年美国国防部高级计划署(DARPA)就启动了一项名为“可解释人工智能”的大型项目(explainableartificialintelligence,XAI)o2022年欧盟委员会发布人工智能道德准则(EthiCSGuidelinesforTrustworthyAl

2、),强调要提高人工智能的透明度和实现可追溯性。2022年我国也在新一代人工智能发展规划中,明确将“实现具备高可解释性、强泛化能力的人工智能”作为未来我国人工智能布局前沿基础理论研究。由于医学领域的高风险性,人工智能在医疗领域的可解释性受到了更加广泛的关注。在医疗领域,人工智能的可解释性有助于提高模型的安全性和可靠性,增强目标用户的信任度等,但是,可解释性方法可能引发的医疗伦理问题也日益凸显。探究可解释人工智能医疗应用伦理问题的意义关乎用户的安全和公平问题。伦理学界从不同的角度对其进行了伦理辩护。其中有两种代表性观点:一种观点认为,在医疗领域中,事后可解释人工智能有助于增强用户信任、提高系统的安

3、全性等。另一种观点认为,人们应该警惕甚至是避免在医疗领域中使用事后可解释人工智能,因为事后解释可能会引发潜在的风险。尽管伦理学界对此不能取得一致意见,但他们都认为探讨可解释人工智能医疗应用伦理问题对患者的安全和公平具有重要意义。本文试图从科技伦理视角审视可解释人工智能医疗应用伦理问题的新挑战,以期寻求合理的解决之道。1可解释人工智能医疗应用伦理问题的新挑战由于考察视角的不同,可解释人工智能并没有一个标准的定义Q可解释人工智能来自英文EXPlainableArtifiCialIntelligence,该术语由VanLent等于2022年首次创造,用来描述他们的系统在模拟游戏应用中解释人工智能控制

4、实体行为的能力1。自2022年DARPA启动关于可解释人工智能的研究之后,该术语开始被普遍接受,DARPA将可解释人工智能定义为一种系统,它可以向人类用户解释其基本原理,描述其优缺点,并传达对其未来行为的理解2。Arrieta等3认为,可解释人工智能指的是,针对特定的受众,通过给出细节和原因,使模型运转更清楚和更容易,被受众所理解的一项技术。本文认为可解释人工智能可以定义为:针对不同背景知识的目标用户,以其可以理解的方式,对模型决策过程的根据进行解释的一项技术Q目的就是帮助人类理解机器为什么会作出这样的决策以及决策是否可靠。人工智能的可解释问题源于深度学习的“黑盒”属性。所谓“黑盒”属性,指深

5、度学习算法是不透明的。不同于传统算法输入和输出之间的确定性,深度学习模型通过反向传播不断调整自己内部的参数和规则,所以人类无法理解它们的内部工作机制。在某些应用领域,比如说人脸识别、文字翻译,可解释性并不是关键的要求,只要这些系统的整体性能足够好,即使系统在运行过程中出现错误,也不会造成很大的影响,因此,这些领域对人工智能系统可解释性的要求相对比较低。但是,医疗领域则不同,医疗中的许多决策实际上是生死攸关的问题,微小的错误都可能会威胁到患者的生命安全,这时缺乏可解释性就成为人工智能走向临床应用的限制性因素。所以,越来越多的专家学者将目光投向了人工智能在医疗领域的可解释性,各种解释方法应运而生。

6、目前,可解释人工智能在医学影像处理、疾病诊断、风险预测等方面都取得了不错的成绩Q例如,Nafisah等4利用可解释人工智能处理胸部X光片检测结核病,Thimoteo等5研究出通过血液检测诊断COVlD-19的可解释人工智能,CUria6利用可解释人工智能预测患宫颈癌的风险。通过给出决策依据,为临床医生提供有效的辅助信息,增加了用户的信任,改善了模型的性能。尽管可解释人工智能给医学带来了很多好处,但其在医疗应用中也引发了不同以往的伦理挑战,具体而言,可解释人工智能医疗应用引发的伦理新挑战主要表现在以下两个方面。1.1 事前解释可能导致的医疗伦理问题针对深度学习的“黑盒”属性,人工智能专家创建了不

7、同的解释方法。根据不同的标准,这些方法又分为不同的类别。DU等7根据获得可解释性的时间,将可解释性方法总体上划分为两类:内在解释和事后解释。这是两种不同类型的解释方法,它们以不同的方式处理不透明问题。内在解释指的是模型本身可解释,因为可解释性发生在模型训练之前,所以也称为事前解释,即无需事后引入另一个解释模型就可以理解预测模型的决策依据。根据解释的实现途径,又可将事前解释进一步分为两种:自解释模型和内置可解释模型。自解释模型就是指传统机器学习中的简单模型,例如决策树、线性回归等。无论是从理论上还是理解上,这些模型都具有比较好的可解释性0内置可解释模型指的是,利用某些方法构建可解释的深度神经网络

8、模型。目前,关于事前解释性的研究多局限于决策树、线性回归等结构简单的传统机器学习算法,而内置可解释模型由于对技术要求很高,暂时未取得突破性进展。事前解释可能会导致医疗安全问题,其表现为以下两种情况:一方面,事前解释的人工智能系统预测准确性较低,导致模型自身存在安全隐患。学术界一般认为,人工智能系统的准确性和可解释性之间存在一定的矛盾,即模型的准确性越高,可解释性就越低;相反,模型的准确性越低,可解释性就越高8。尽管在RUdin9看来,在数据结构化并具有良好的特征时,复杂模型和简单模型之间的性能通常并没有显著差异。例如,利用决策树算法构建区分感冒和咳嗽的预测模型也具有较高的准确率,基本达到诊断要

9、求10。但是,这是基于医疗数据具有良好特征时,在现实情况中,绝大多数医学数据是以多种模态呈现,每种模态各有所长、相互关联,极大限制了对病症的预测和诊断11。因此,虽然自解释模型自身具备良好的可解释性,但在面对多模态的医疗数据时,模型筛查水平和诊断效率与深度学习模型相比还是存在比较大的差异。因此,在医疗应用中使用事前解释人工智能就意味着要以牺牲准确性为代价,从而导致人工智能系统在辅助临床医生治疗中存在安全隐患,进而给患者的生命安全带来致命的威胁。另一方面,事前解释为对抗攻击提供了有利条件,导致模型自身存在医疗安全隐患。对抗攻击是神经网络模型中常见的攻击方法,它通过输入人类难以察觉的微小扰动,从而

10、使模型进行错误决策,甚至可以根据设计的扰动,输出攻击者想要的分类结果Q研究发现,解释方法可以本能地为对抗样本的生成提供特定区域12。对于模型的研究者来说,可解释性技术有助于有效评估模型决策行为的安全性和可靠性,通过对抗训练,模型的鲁棒性和安全性能得到有效的提升,从而消除模型实际部署应用中的安全隐患。但是,对于模型的攻击者来说,可解释方法却也为攻击者探测原始模型弱点提供了有利条件,在医学影像处理方面,对原始图像添加人眼不可分辨的扰动,对于输入中产生的微小变化,都会对深模型预测准确性产生很大的影响。在临床治疗中,系统一旦受到对抗攻击的干扰,那么提供的解释结果必然会影响医生的诊断过程,甚至会误导医生

11、的诊断而给患者带来致命的威胁。1.2 事后解释可能导致的医疗伦理问题事后解释指的是创建专门的解释模型来解释原始模型,即需事后引入另一个解释模型才可以理解预测模型的决策依据。它往往针对的是复杂度比较高的模型13,比如深度神经网络。因为可解释发生在模型训练之后,所以称为事后解释。根据解释的范围,可进一步将事后可解释分为全局可解释和局部可解释。全局可解释意味着用户可以通过检查复杂模型的结构和参数从而理解模型整体是怎样运行的。局部可解释为模型的单个预测提供局部解释。根据解释方法是否依赖具体模型内部参数,又可分为模型无关的解释方法和模型相关的解释方法,模型无关解释方法可针对任何预测模型,而模型相关解释方

12、法则是针对特定的预测模型。目前常见的事后解释方法主要有知识蒸储、激活最大化、类激活映射、反向传播等。事后解释能够在保持模型性能的基础上实现可解释,因此,目前在医疗领域主要还是依赖基于事后解释的人工智能系统。事后解释主要会出现以下几种伦理问题:其一,医疗责权问题。将人工智能引入医疗领域本身就提高了医疗责任主体认定的复杂度Q在传统医疗模式下,如果发生医疗事故,医疗机构和医护人员是责任主体,而将人工智能引入医疗领域之后,医生和患者之间增加了人工智能和制造商,这就使得医疗责任主体的认定变得更加复杂。即使将深度学习引入医学领域提高了医疗诊断效率和准确性,但是其应对突发情况的反应处置能力还是带来许多有待解

13、决的问题,目前的技术条件还无法保证百分之百的医疗准确率。比如在医学影像处理方面,对原始图像添加人眼不可分辨的扰动对于输入中产生的微小变化,都会对深度神经网络的预测准确性产生很大的影响,如果出现医疗事故,应该由谁负责。而此时事后解释不仅仅是对传统人工智能医疗责任主体问题的放大,并且是一种颠覆。BabiC等14认为这种事后合理化的解释往往可能会成为一些利益相关者逃避医疗责任的手段。因为对于自身可解释的人工智能来说,如果系统出现错误,我们可以通过回溯运行步骤找出错误的环节,事后解释却难以回溯,而且这种事后的合理化有可能还会被一些利益相关者用来转移注意力。例如,人工智能的制造商为了逃避医疗责任,故意设

14、计一些对自身有利的事后解释模型。当出现医疗事故时,如果医疗责任主体难以认定,患者权益将难以得到保障。其二,医疗安全问题。在疾病预测方面,利用可解释性人工智能取得了不错的成绩。例如,RajPUrkar等15基于深度学习开发了诊断肺部疾病的医疗预测模型,准确度已达到专家级诊断精度。同时,通过事后解释提取模型特征,为临床医生提供了有效的辅助信息,使医生不再盲目的依赖黑匣子。但是研究发现12,攻击者可以利用事后可解释性技术对医疗预测模型进行对抗攻击Q一方面,在不改变解释结果的前提下,攻击者可以利用可解释性技术探测医疗模型的漏洞,诱导模型作出错误的医疗决策;另一方面,在不改变医疗模型决策结果的前提下,攻

15、击者可以利用可解释技术干扰医疗解释过程,诱导解释方法作出错误的医疗解释。相关研究表明16,由于事后解释只是对原始模型的一个间接和近似的解释,攻击者可以还利用二者之间的不一致性设计针对系统的新型对抗样本攻击Q因此,在临床治疗中,系统一旦受到对抗攻击算法的干扰,那么提供的解释结果必然会影响医生的诊断过程,而错误的诊断可能会对患者生命安全产生严重的后果。此外,由于事后解释的近似性,有时医生甚至可能会被误导引发错误的诊断,进而给患者带来致命的威胁。其三,歧视性问题。在医疗人工智能的研发设计阶段,由于训练数据偏倚等原因而将种族、性别、阶层偏见等伦理问题带入模型中,从而导致人工智能在医疗应用中出现歧视性问

16、题。例如,一种用于诊断乳腺癌的人工智能系统认为黑人女性患乳腺癌的风险更高17。可解释性通过提高模型的透明度而被认为是防范系统偏见的有效手段,但是研究发现,目前的可解释性方法并未达到预期目标,并且对解释的依赖甚至会降低我们对这些歧视行为的警惕18。医疗歧视引发的临床风险对患者的生理和心理都造成了严重的伤害,而且这种不平等很可能会加剧社会偏见,从而引发重大的道德问题。其四,患者医疗自主权问题。所谓患者医疗自主权,是指在医患关系中,以实现患者自由意志为目的,基于患者的自主能力而对生命、健康等具体人格利益进行选择与决定的抽象人格权19。也就是说,以人工智能为辅助诊疗时,患者有权知道系统的局限性、决策的合理性等相关方面的问题。对于可解释性的定义,学术界尚没有统一的标准,这是由于可解释性并不是一个单纯的技术问题,它是在人工智能与目标用户交互中才得以实现的。但是研究20却发现,医疗领域现有的大多数可解释人工智能设计要么只关注算法本身的性能,要

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > IT计算机 > 人工智能

copyright@ 2008-2023 yzwku网站版权所有

经营许可证编号:宁ICP备2022001189号-2

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!