76人队
介于两者之间的关怀:将负责任的人工智能和机器人引入医疗保健的提议

  在围绕人工智能(AI)的承诺和危险日益两极分化的情况下,如何在医疗保健中引入负责任的人工智能和机器人技术?在本文中,我们开发了一种伦理-政治方法,将民主机制引入技术发展,我们称之为“中间关怀”。关注在不确定领域出现的多种行动可能性,我们提出了一个道德和负责任的框架,重点关注在恐惧和希望之间的护理行动。运用科学技术研究的理论视角和实证研究,“中间关怀”基于三个运动:一是关注点从充满承诺和危险的世界转向充满不确定性的世界;第二种是概念上的转变,从假设基于人机交互的机器人关系到另一种关注机器人嵌入网络的关系(“嵌入网络的机器人”);最后是道德的转变,从一般的规范框架到对使用背景的讨论。基于这些建议,“中间护理”意味着体制挑战,以及卫生保健系统的新做法。它围绕三个同时进行的过程进行阐述,每个过程都与所考虑的“中间”维度的实际行动有关:通过公众参与和制度变革监测关系和关怀过程;包括利益相关者的关切和优先事项,组织参与性进程和替代代表形式;通过选择渐进的和可逆的行动,让恐惧和希望变得可比较。

  在围绕人工智能(AI)和医疗机器人的想象图景中,关于乌托邦和反乌托邦的场景存在着一场突出的辩论,社会和伦理讨论在人工智能的承诺和危险之间两极分化。本文立足于一个远离乌托邦和反乌托邦之间所谓的“深渊”的领域,而是位于恐惧和希望之间的地形,以及体验多种可能性的地方(de Sousa Santos 2016)。利用科学技术研究(STS)的理论方法,我们在这些中间空间提出了一系列行动,以将负责任的人工智能和机器人技术引入医疗保健。然而,我们不建议采取任何行动,而是基于道德关怀的行动。我们通过探索一个特殊的案例来实现这一点,这个案例可以说明医疗人工智能的一些常见动态,即儿童医院的护理机器人(即社交辅助机器人)。

  在公共和学术领域,越来越多的人认为,解决世界各地医疗保健系统面临的主要临床、经济和一般福祉问题的方法将来自人工智能(Morley等人,2020;Topol 2019)。医疗人工智能提供了很多希望:在放射学、病理学和皮肤病学中使用图像分析进行早期诊断,与医学专家并行工作时具有出色的诊断速度和准确性;个性化治疗,优化慢性病患者的护理轨迹;复杂疾病的精准治疗;减少医疗差错;增加临床试验的注册人数(Miller and Brown 2018)。领先的医疗保健和计算机科学家认为,人工智能将通过两种方式帮助医疗保健系统提高效率:一方面,通过改善患者诊断和治疗的时间框架和准确性,并在可能的情况下帮助进行早期预防;另一方面,简化工作量,更有效地利用员工(Kerasidou 2020)。机器人被认为是医疗人工智能的一个特定子类别(Shoham et al 2018)。在所谓的新机器人时代,一个致力于医疗保健应用的新机器人家族已经变得特别多产(Schaal 2007)。机器人技术的新时代使机器人能够安全地与人类互动,易于编程和调整特定需求,并使机器人有可能在医院、养老院和其他医疗保健机构中充当移动、交互式信息系统。由于它们具有与人类互动的能力,这些机器人为研究健康的情感和社会层面开辟了一个有趣的场景。

  人工智能和机器人科学的推动力,特别是深度学习亚型,在所谓的大数据的使用下,以及高度增强的计算能力和云存储的推动下,使各个领域的自动化程度更高。然而,尽管自动化对企业和国家的就业、生产力和经济绩效有着长期的影响,但将人工智能系统引入医疗保健环境,对医疗保健自动化产生了前所未有的影响。(法国《巴黎与dom

  》2020;Sampath and Khargonekar 2018)。因此,随着对人工智能前景的叙述,这些创新技术也是我们这个时代许多不确定性的来源。

  这个领域的前景肯定很高,而数据和证据相对较低。此外,许多问题与人工智能和机器人技术直接相关,例如社会偏见、隐私和安全以及缺乏透明度(Topol 2019)。机器执行传统上只与人类相关的活动的可能性-例如抽象问题解决,感知识别,社会互动和自然语言(valor和Bekey 2017)-产生了许多危险。这些危险与未来人工智能功能的假设情景有关,而不是真实的、当前的情景,并且与人类被技术系统取代的“假设”可能性或对依赖者和病人的照顾变得“非人化”有关(vall

  - peris et al. 2021a)。

  尽管不可否认的是,人工智能和机器人技术的发展是指数级真实的,但围绕其假定功能的伦理关注与当代人工智能的真实可能性之间存在差距(Hagendorff 2020)。如果争论只集中在机器人的乌托邦式或反乌托邦式发展上,那么一些问题就被夸大了,而关于人工制品的背景、情况和争议的识别仍不清楚,这些人工制品与这个承诺的未来没有什么关系。与此同时,很难识别问题,并围绕一些已经在使用的机器人(没有集成高度智能自主机器人的复杂功能和能力)产生伦理辩论。

  作为一项超越这种承诺/危险情景的建议,我们开发了一种方法,基于三个运动将负责任的人工智能和机器人引入医疗保健领域:(a)第一个是将焦点从承诺和危险的世界转变为不确定的世界;(b)第二个是概念上的转变,从假设基于人机交互(HRI)的机器人关系到另一个专注于机器人嵌入的网络(“机器人嵌入网络- ren”);最后是(c)从一般规范框架到对使用背景的讨论的伦理转变,从护理伦理的逻辑。基于这些建议,我们为引入负责任的人工智能和机器人定义了一个新的伦理-政治建议,我们称之为“中间关怀”。

  为了发展我们的建议,本文分为七个部分。接下来的一个是我们对护理机器人的研究;然后,我们发展了三个运动,作为我们提案的基础:在第3节中,我们关注从承诺和危险的世界到不确定的世界的运动,在第4节中,我们探索从HRI到REN关系的运动,在第5节中,我们解释了从一般伦理框架到使用背景的运动,从护理伦理;在第6节中,我们概述了我们的伦理政治建议,将负责任的机器人和人工智能引入医疗保健和;最后,总结了本文的主要结论。

  我们关于负责任的人工智能和机器人的建议是基于我们在巴塞罗那一家儿童医院引入护理机器人时进行的一系列实证研究。在儿童健康环境中,用于护理的机器人通常被认为是用于特定治疗干预的机器人,例如自闭症儿童(Heerink等人2016年)或康复过程(Meyer-Heim和van Hedel 2013年)。护理机器人也参与了机器人的广泛研究和应用,以减少儿童受到某种干预时的疼痛和焦虑(Crossman等人2018年),或者只是为了让住院更愉快(Díaz-Boladeras等人2016年)。在工程和计算机科学中,我们在本文中提到的护理机器人通常包括在所谓的“社会辅助机器人”领域。一般来说,该领域的重点是提供人工智能机器人系统,以帮助最终用户在日常活动中有特殊的身体或认知需求(Pareto Boada et al. 2021)。

  自2015年以来,我们一直参与巴塞罗那一家儿童医院的研究,设计和引入护理机器人。作为社会科学家,我们与一个由医生、护士和工程师组成的跨学科团队合作,确定将这种机器人引入医院的伦理和社会影响。在整个过程中,我们进行了三个实证研究项目,它们的共同目标是探索不同参与者的恐惧和希望,这些参与者以这样或那样的方式与机器人建立或必须建立护理关系。

  这些研究项目的一些细节如下:

  儿童参与过程,为儿童医院设计护理机器人。在三个月的时间里,我们在一所有60名6岁儿童的学校进行了一个参与式的过程。儿童被分成两大组,每组30人,每组12次(共24次)。参与式过程采用了设计思维技术。

  视力评估过程,以确定在儿童医院参与护理的不同类别人员中,机器人的未来护理愿景相关的风险和收益。我们组织了三个护士焦点小组,共22人;有医院志愿者的三个焦点小组,也有22人参加;在之前与住院儿童的亲属举行了关于机器人护理技术的研讨会之后,一个有10人参加的焦点小组;并采访了三名儿童医院的主任医师。

  对机器人专家的一系列采访,以确定他们对机器人护理的担忧。研究人员对护理机器人领域的机器人专家进行了11次面对面的半结构化访谈。

  在调查期间进行的各种参与者和实地工作的参考框架是该医院正在实施的机器人(已经引入或处于试点/预期阶段):宠物机器人用于减少术前和诊断测试中的焦虑,以及使住院时间较长的儿童住院更愉快;自闭症儿童治疗机器人;远程通信机器人系统,用于医生的诊断访问或在住院儿童的情况下促进与学校的沟通。这并不意味着我们的建议只涉及这种类型的机器人,而是我们的建议是通过研究这些人工制品的实现来培养的。事实上,我们的研究是在与住院儿童一起使用的机器人上进行的,这意味着我们可以更容易地识别特别敏感的问题和高度微妙的情况。

  我们使用定性技术分析收集到的数据,即访谈和焦点小组的专题分析(Clarke and Braun 2014)和参与性过程的厚描述(Ponterotto 2006)。然而,本文的目的不是介绍这三个研究项目的分析和结果,而是建立一个负责任的人工智能和机器人方法,包括这些项目中确定的不同群体的实践和关注。

  正如引言中所解释的那样,围绕人工智能和机器人技术的社会和伦理辩论往往围绕乌托邦或反乌托邦的场景(Shatzer 2013),或者专注于风险和利益的识别(Verbeek 2006),这导致了承诺和危险的日益两极分化。正如社会学家de Sousa Santos(2016)所警告的那样,在我们这个技术改良的世界里,面对没有恐惧的希望(健康创新部门和指数效益的市场)和没有希望的恐惧(任何相信技术进步无法停止,我们需要适应任何可能发生的变化的人)的日益两极分化,恐惧和希望正在崩溃。在这种情况下,不确定性变得可怕,没有行动的余地。

  受斯宾诺莎观念的启发,de Sousa Santos(2016)研究了恐惧和希望在认识论和经验上的不平等分布。除了极度的不确定性之外,不确定性也是对恐惧和希望之间存在的多重关系所产生的可能性的体验。由于不同群体和行动者之间的关系不同,不确定性的类型也不同。恐惧和希望并不是在所有社会群体或历史时代中平均分布的。就技术而言,恐惧和希望的参数往往有利于有更多机会获得科学知识和技术的社会群体。对于这些群体来说,对科学进步和创新的信念足够强大,足以抵消对当前知识局限性的任何恐惧。对于那些接触科技知识较少的人来说,这是一种产生不确定性的自卑。对他们来说,不确定性是由他们在这个世界上的地位产生的,这个世界是由影响他们的强大而陌生的知识所定义和制定的,他们对这些知识几乎或根本无法控制。这种知识是关于他们的,最终是反对他们的,但从来没有和他们在一起(de Sousa Santos 2016)。

  在围绕医疗人工智能的承诺和危险的梦境中,我们捍卫道德和社会讨论的必要性,以摆脱乌托邦和反乌托邦之间的投机场景。相比之下,我们将自己置于恐惧和希望之间的地带,在那里出现了多种可能性(de Sousa Santos 2016)。在这种情况下,不确定性被定位和协商,嵌入到参与医疗保健关系的行动者中。因此,为了在医疗保健领域开发更负责任的人工智能,特别是针对社会需求并保证个人和集体福祉,我们建议将重点放在由特定人工制品(即儿科医院护理机器人)打开的空间中的护理(护理即行动)上。

  关于伦理和机器人的文献主要解决了社区在这一领域关注的研究认为重要的利益,而其他利益相关者的意见,如机器人研究人员、卫生专业人员和患者,没有直接讨论。在公开辩论中,关于人类是否可以被机器人取代或机器人是否应该拥有权利的问题似乎优先于当前和更现实的挑战,这些挑战可能来自它们在特定应用中的使用(van der Plat et al. 2010)。这种“先验”的哲学方法有一些局限性(Stahl和Coeckelbergh 2016),包括难以建立一个规范框架来指导和定位医院或其他医疗机构在引入护理机器人时可能出现的日常问题。

  我们提出的超越以人工智能前景为中心的讨论的建议,是基于对恐惧和希望是如何表达的分析,以及如何与不同的参与者进行谈判。在研究机器人护理过程中涉及的几个参与者必须处理的争议时,我们来研究参与儿童医院医疗保健关系的不同参与者的实践和价值观。Callon等人(2009)认为,对某些技术使用的争议会产生不确定性,并带来不可预见的担忧。如果我们希望丰富围绕技术的辩论,就必须提请注意对这一问题进行集体讨论的重要性,而不是简单地寻求协商一致意见或一般原则。正如Epstein(1995)所观察到的那样,非专业人员参与与他们实际相关的知识的开发可能会导致问题的制定和研究成果的传播和实施方式不同。根据这一观点,我们在这里就护理机器人所做的是反映围绕医疗人工智能的争议进行集体讨论的重要性,从而丰富问题的表述并提出替代框架。

  鉴于机器人和人工智能的创新水平正在加速,并超出了我们预测其后果和对我们生活的影响的能力,将这些技术负责任地引入医疗保健领域处于恐惧和希望之间的不确定性领域。在这些技术影响不确定的背景下,Callon等人(2009)呼吁对技术创新的潜在危害、影响或因果关系进行预防。可能更能代表预防的行动是所谓的“慎重行动”,这意味着由反馈和持续辩论驱动的渐进式行动,并考虑到该行动的后果。“有分寸的行动意味着一种积极、开放、偶然和可修改的方法,与明确的最终决定恰恰相反。”然后,这种方法依赖于知识的深化,但不仅仅是孤立研究的科学学科所提供的知识。行动对社会的相称性、可接受性和经济成本也在审议中占有一席之地”(Callon et al. 2009: 210)。

  这一立场使我们远离了乌托邦式的承诺和反乌托邦式的危险之间的极度不确定的领域。这是关于期望的未来的不确定性,关于护理机器人是什么,关于将这种设备引入儿童护理的风险,等等。在我们的提案中,不确定性和预防是人工智能和机器人技术最相关的特征,因此是将这些技术负责任地引入医疗保健的特权空间。这个想法是基于STS的理论背景和理解机器人的特定方式,以及在考虑负责任的技术时关心伦理的中心地位。在下面的部分中,我们将讨论这些问题。

  摘要

  1 介绍

  2 某儿童医院护理机器人的实证研究

  3.从充满希望和危险的世界到充满不确定性的世界

  4 从人机交互(HRI)到机器人嵌入网络(REN)

  5 从一个有道德的将军f

  框架到公司

  使用语境,使用伦理关怀

  6 中间的关怀

  7 结论

  数据和材料的可用性

  代码的可用性

  参考文献

  作者信息

  道德声明

  搜索

  导航

  #####

  护理机器人用于执行许多特定任务,例如促进患者与医院外的关系,减少术前护理中的痛苦,以及修改医护人员执行某些操作的方式,例如测量生命体征,执行详细的干预措施等。在考虑和设计医疗环境中的机器人代理以及与儿童互动的能力时,考虑到人工制品或设备如何嵌入到涉及多个参与者的关怀关系网络中是相关的(López-Gómez 2015)。儿童的幸福不仅取决于机器人与他们互动的能力,还取决于它与整个社会关怀关系系统互动的能力。然而,在工程和相关的伦理辩论中,儿童与人工智能机器人之间的关系通常被儿童-机器人交互(CHRI)的概念概念化,这是儿童的人机交互(HRI),它描述了两个相互交互的孤立实体:人类和机器人。

  大多数STS方法,如行动者网络理论和技术的社会建构主义,都假设一个或多或少开放的本体论宇宙,在这个宇宙中,很难在社会、人类、自然和技术之间建立严格的界限(Karakayali 2015)。随着自然和社会作为独立实体的概念被抛弃,一个新的实体出现了:一个异质网络(Callon and Latour 1992)。在这种观点中,任何技术创新都可以通过其关系和上下文性质来解释,即它如何在其关系网络中有意义(dom

  内奇和蒂拉多,2009)。因此,技术创新不仅仅是一个人工制品,而是一个由设备、过程和行动者组成的完整网络(Latour 1999)。从这个角度来看,护理机器人是一个物质、社会和符号关系的综合体,其中技术、科学、政治、经济、社会和伦理考虑紧密地交织在一个行动者身上(Latour 1999)。这种异质性的观念可以伴随着关系唯物主义,根据关系唯物主义,元素并不因为任何本质的原因而存在,而是由它们所属的网络构成的。这种方法可以通过假设对象、实体或参与者是网络中的节点来得出其逻辑结论。这些节点也是以交互方式构成的,并且不存在于它们的交互之外。人工制品、人、制度、协议……一切都是一种效果或产品(Law and Mol 1995)。

  一些作者使用解释灵活性的概念来对护理机器人进行分类。根据这一概念,机器人可以根据其使用环境、使用功能和用户进行分类(Howcroft et al 2004)。这一概念强调了将技术问题的定义从与之相关的社会经济框架中分离出来的不可能性(Bijker 2009)。因此,当机器人被用于医院以减少儿童在术前空间的焦虑时,它可以被称为护理机器人,但当机器人被工程学生用于参加国际机器人足球联赛时,它也可以被归类为娱乐机器人。同样,被护理人员用来抬抬行动不便或没有行动能力的病人的机器人可以被归类为护理机器人,但当它被工厂工人用来抬重物时,它可以被认为是工业机器人(van Wynsberghe 2015)。

  当技术被使用时,它们总是有助于塑造它们实现其功能的环境。它们有助于塑造人类的行为和观念,并创造新的做法和生活方式。拉图尔(1999)称这种现象为“技术中介”:技术中介其用户的经验和实践。这种调解至少与技术风险和灾害预防具有同样多的道德相关性(Ihde 1999;Verbeek 2006)。技术有助于塑造我们的生活质量,更重要的是,它们有助于塑造我们的道德行为和决定。护理机器人可以帮助医疗保健机构的医务人员,例如,通过监测生命体征,从而预防危重儿科患者的某些情况,或者通过个性化和调整自闭症儿童的治疗方法。然而,一些研究警告我们,远程医疗设备(通常内置在人工智能机器人中的技术)的引入已经改变了医疗保健实践和知识(Mort et al 2003)。护理的异质性以及机器人的异质性意味着,当新的节点被引入医疗保健网络时,护理的实践和价值就会发生变化。当一个机器人被引入医院的护理关系网络时,它和网络就会发生变化。技术使人类和世界之间的某些关系成为可能,否则这是不可能的。然而,技术不是中立的中介,而是积极的中介,有助于形成人类对现实的感知和解释(Verbeek 2006)。机器人调解了我们理解和实践护理过程的方式,就像机器人从它参与的社会关系的集合中被重建一样(Law and Mol 1995)。

  根据Peter-Paul Verbeek(2006)所谓的物化道德(materialized morality)的观点,在使用技术时,进行了预先嵌入人工制品中的调解形式,我们分析了儿童在设计护理机器人时的表现(vall

  - peris et al. 2018)。儿童在卫生保健环境中对幸福的表现通常包括其亲属或其他人的在场。他们对自己独自住院或生病的表现是悲伤的,而被亲戚、兄弟姐妹或医务人员包围的表现是快乐的。与机器人的预期互动会产生一种幸福感,这是在与其他人的网络中想象出来的。同样,负责医院护理工作的人员(在本例中,由护士和志愿者组成的焦点小组评估在试点阶段引入医院的恐龙形状机器人的风险和收益)对机器人的评估是基于机器人在住院期间融入陪伴儿童的关系网络的能力。

  超越以HRI为代表的二元模型中人-机器人关系的概念化,机器人嵌入网络方法(REN)的兴趣在于儿童医院日常护理中出现的不确定性和争议,例如:护士和机器人之间的任务如何分配,例如,如果护士由机器人陪同,机器人会记录病人的生命体征;医院在决定是否参与将这种设备引入自闭症儿童治疗的试点项目时,如何整合心理学工作人员的意见;护士如何利用机器人的存在来娱乐试图插入静脉注射管的孩子;父母和医生如何评估是否有必要收集面部表情数据来监测在ICU的孩子,等等。了解如何管理和解决这些不确定性需要替代的伦理框架,这些框架超越了关于机器人护理的“大”哲学问题;反过来,这些问题是基于护理机器人的“假设”发展,而不是基于它们现在可以执行的“真实”功能和任务。

  这种技术创新的概念化提出了对人工智能传统伦理方法的质疑,同时更深入地研究了生物伦理学中的关系理论,其中包括一种超越人类的方法(Lupton 2020)。关系理论重塑了自主性的概念,强调患者的社会和情境环境,强调人们始终是社会网络的一部分,所有伦理考虑都必须考虑到这种关系网络(Sherwin and Stockdale 2017)。Deborah Lupton(2020)建议考虑技术人工制品在此类网络中的作用,以便更好地理解数字健康和生物伦理考虑。在她看来,这种超越人类的分析凸显了将机器人用于护理或其他数字健康技术引入医疗环境时所涉及的复杂性(Lupton 2020)。在同样的思路下,我们将围绕护理机器人的伦理和社会争议置于由各种各样的参与者组成的网络中:技术设计师、医疗保健专业人员、亲属、患者和机器人。我们的重点不是人工智能技术,而是在引入人工智能技术时确定影响医疗保健关系的相关变量。

  为了发展一个伦理框架,结合STS的传统,我们使用了护理伦理的概念。从这一领域的不同方法来看,我们的建议是基于Joan C. Tronto提出的从政治哲学角度理解关怀的观点。Tronto方法的出发点是,人类的核心定义是与他人的关系参与,在一个关系网络中,每个人都必须协调不同形式的照顾责任(vall

  - peris和dom

  - nech, 2020)。在这些关系中,关怀的道德与具体情况息息相关,而不是抽象的、基于原则的(Cockburn 2005)。从这些基础上,对护理过程的分析为我们思考如何执行特定的护理任务及其伦理维度提供了有用的指导(Tronto 1998)。同样,并不是所有的集体在相同的条件下都面临不确定性的观点是一致的,护理伦理的观点与那些难以表达自己担忧的人有关(Puig de la Bellacasa 2011)。在医疗人工智能和机器人领域,这也意味着确定技术发展中普遍存在的护理问题,人工制品产生了什么样的权力关系,以及它们促成了什么样的关系。

  护理经验和做法可以被具体地、经验性地识别、研究和理解。然而,“关怀”在其意义和本体论上是矛盾的(Puig de la Bellacasa 2017)。假设其理解的复杂性和多样性,Fisher和Tronto(1990)提出应该从异质的角度来看待它,与塑造它的经济、政治、象征和物质因素不可分割。对她们来说,护理包括:护理的实践,通常被认为是家务;关怀所涉及的情感和情感意义;组织和政治概念包括管理和规范维持护理关系的一切。在以卫生技术为重点的STS中,这一观点已被纳入“护理的经验伦理”(vall

  - peris 2021a)的概念,从这个概念出发,对护理关系的分析意味着拒绝关于如何提供护理的先验和真实知识所依据的逻辑。因此,护理的经验伦理围绕着这样一个想法,即它位于人们的实践中,在流程、协议、惯例或机器的帮助下,采取行动实现良好的护理(Willems和Pols 2010)。

  从异质性的观点来看,任何人工制品的出现都与在其创造和设计过程中存在的各种偏见、价值观或政治和经济关系有关,这些条件都被铭刻在该人工制品中(Bijker 2009;Callon 1998)。因此,护理机器人的创造和设计不能与我们生活的新自由主义逻辑分离,不能与归因于护理的低社会和政治价值分离,也不能与男女之间以不平等的方式组织护理的性别分工分离(Tronto 2018)。Maibaum等人(2021)提出,应该从机器人的政治现实出发,以类似的方式对待机器人。人们常说,我们正处于护理危机之中,这与缺乏护士、教师、护理人员和家政人员所造成的压力有关,而人口变化和人口老龄化又加剧了这种压力(vall

  - peris等人,2021b)。在新自由主义模式中,所谓的护理危机的解决方案是由市场阐述的:经过多年的国家缩小规模,正是由这种新自由主义模式推动的,提出的解决方案是建立市场来满足人类的需求(Tronto 2018)。

  在这种背景下,机器人在医疗保健领域的发展离不开它对技术创新市场的强大经济影响。尽管护理危机是最常用于解释开发护理机器人的必要性的论据之一(Maibaum et al. 2021),但在围绕它的辩论中,护理问题几乎是缺席的——尽管有一些例外的建议,例如van Wynsberghe(2013)的建议。例如,在人工智能系统(包括机器人)的各种指导方针和监管机制中,商业或商业利益与与护理需求和组织相关的问题之间可能出现的紧张关系很少得到关注,这可以看出这个问题(Hagendorff 2020)。

  从这种方法中可以理解,围绕人工智能和机器人技术的伦理辩论不能仅仅关注主要的哲学问题,还必须考虑与医疗保健管理和日常实践相关的方面。因此,在护理机器人的情况下,兴趣不应该仅仅在于诸如是否适合用机器人取代人类(Sharkey 2008),是否需要建立情感纽带(Sharkey and Sharkey 2012;Sparrow and Sparrow 2006),或者在发生伤害或损害时的责任(Matsuzaki and Lindemann 2016)。来自护理伦理的辩论还着眼于确定当机器人被引入特定环境和情况时,塑造护理关系的实践、恐惧和希望。例如,儿科病房的护士如何让不同房间的孩子到走廊去喂宠物机器人;或者在会议上如何决定,从现在开始,自闭症儿童的治疗将使用一家大型机器人公司捐赠的机器人。

  从REN方法中,我们避开了基于承诺的护理机器人的风险和收益的乌托邦或反乌托邦场景的标准讨论,这种方法似乎旨在建立信任和对反对和沉默的预期(Nordmann和Rip 2009)。关于护理机器人的调解可能性是由具体的人工智能设备的技术元素在其与医疗保健关系网络的交互中配置的。因此,正是在这个社会关系网络中,机器人起到了中介作用;在特定的社会背景下使用特定的设备进行特定的调解(Feng and Feenberg 2008)。Andrew Feenberg(1999)在他的工具化理论中阐述了这一观点。护理机器人的技术配置决定了机器人在网络中功能可能性的条件,而这些条件与机器人的设计和生产历史有关。然而,当这些特性被集成到给定的环境中时,它们是重新定向的。机器人有它们的(工具)理性,但是当它们进入儿童医院时,它们是什么以及它们所做的调解取决于它们在该医院的用途,以及在具有特定协议和演员的特定护理单位(Feenberg 2010)。

  在手术室的门旁边,一位母亲抚摸着孩子10分钟前抱着的机器人宠物,这让她在孩子接受手术时平静下来,这时机器人就变成了照顾母亲的机器人。在这种情况下,争论和伦理讨论就会出现,例如,与人造物体建立情感联系的危险。正是在参与医院保健关系的不同行为体(患者、亲属、医务人员、志愿者、协议、单位、测试等)的具体日常实践中,才出现了问题和解决这些问题的规则。因此,我们研究的参考点不是机器人,而是它参与的关系。在分析和反思伦理和社会争议中没有突出的行动者,而是涉及儿童医院医疗保健关系的各种行动者。

  在特定环境中的护理关系的集体网络中,我们将医疗人工智能的社会和伦理问题的研究置于其中,从接近护理经验伦理的概念来接近该主题,其中围绕“良好护理”的理论被定位于实践中,而不仅仅是基础或指导行动(Willems和Pols 2010)。因此,这种方法的结果不是规定性的解决办法。他们没有回答诸如是否安装带有网络摄像头的机器人以便始终监控ICU的儿科患者之类的问题,而是就具体问题提供了建议。继续这个例子,支持和反对安装网络摄像头的理由是什么,亲属、病人、医务人员、创新部门等的观点是什么,我们如何调整机器人以适应这种情况下的常规、需求和关注点?(vall- peris and domnech 2020)。

  围绕护理机器人的伦理和社会问题研究的启发式,从三个定义的运动中,可以总结为三个假设:(1)如果机器人是组成一个装配的参与者和过程的网络,那么识别这些参与者和过程,以及他们的关系和协商形式的知识,成为任何伦理反思的起点。(2)由于机器人不仅是人工制品,而且是在一个完整的护理网络中铭文的,因此伦理含义是特定于每个应用环境的,以及机器人改变或修改特定护理关系表达的方式。(3)因此,指导医院或其他医疗机构引入机器人的负责任框架必须特别与这些背景及其伦理原则和价值观联系起来。

  正如前几节所解释的那样,如果我们从护理伦理出发的机器人概念呈现异质性,那么伦理的焦点就会转移到医疗保健关系上,这种关系是在引入护理机器人时互动构成的,关于如何引入负责任的机器人的辩论将围绕REN展开。从REN的角度来看,分析的重点是机器人参与的护理关系网络,而不是作为孤立实体的机器人的特定功能或特征,也不是个体实体之间的二元交互。多个代理(机器人、儿童、家庭成员、医院协议、医护人员等)之间的关系网络构成了讨论的唯一框架。正是在这种特殊的、具体的日常实践、想象、叙述等框架内,问题和解决这些问题的规则才会出现。

  例如,通过这种方法,可以分析某些机器人设备的引入如何改变医院与患者之间的护理关系,或者如何改变医护人员的诊断或治疗技能(vall

  - peris等人,2021a)。把注意力集中在REN上,我们可以确定那些被认为是必要的因素,以确保机器人的引入不会破坏在特定背景下塑造医疗实践和护理关系的道德价值观。因此,当医生在其他地方时,引入机器人对医院里的孩子进行远程诊断访问,与当病人在家时进行相同的访问是不一样的。同样,在医院里使用同一台机器人对创伤科收治的儿科病人进行随访,与对精神科收治的病人进行随访是不一样的。

  关注在不确定领域出现的多种行动可能性,我们提出了一个道德和负责任的框架,重点关注在恐惧和希望之间的护理行动。从这个观点出发,我们从关怀的伦理中得到了有节制的行动的概念。根据Callon等人(2009)的说法,可测量的行动通过三个相互关联的维度发生:(1)监测系统:只有当使用正式的社会技术设备来收集信息,从而使我们能够从监测转向警报时,预防措施才有可能;(2)知识的深化,通过探索和识别过剩。预防措施需要对相关风险和危险进行初步评估,以评估其严重性;(3)选择要采取的临时措施,这些措施必须适应应用这些措施的每一种情况,保证根据不断出现的争论采取后续行动和更新。在这三个方面中的每一个方面,都可能有特定的行动者,具有特定的行动方式和不同的责任水平。衡量行动用三个维度中的一系列“小”决策取代了清晰有力的决策。小的决定代表着渐进的进步,但没有一个决定需要不可撤销的承诺。

  我们调整了从护理伦理提出的衡量行动来讨论护理机器人,从而定义了一个负责任的框架,以引入基于“中间护理”的这些技术。关于关怀伦理的主要论点是,为了使相互依存的生活成为可能,关怀是一个共同的因素,它使我们在生活和环境之间建立的关系成为可能。因此,如果我们认真对待,它代表了思考我们周围技术的必要伦理和政治主张。这种观点对义务论方法提出了问题,根据这种方法,道德标准只能通过原则宣言来实现。这些原则描述了道德愿望,但并不能使批判性思维或发展变革实践成为可能(Tronto和Kohlen 2018)。因此,负责任的机器人技术,从其概念REN开始,需要对机器人护理的组织、管理和实践框架进行制度变革。从衡量行动和关怀伦理的整合来看,中间关怀被定义为一个三重过程或关系:(a)网络线程中的节点之间;作为保健技术参与的护理关系和护理过程的运动的行动;(b)网络中不同行为者之间;行动作为一种练习,倾听所有参与医疗保健环境的行动者的声音和不同的关切,并将他们的问题和解决方案纳入道德辩论;(c)在恐惧和希望之间,在不确定的领域;行动作为一种工具,克服医疗人工智能的承诺和危险之间的两极分化,从而为极度的不确定性提供另一种选择。

  该提案侧重于机器人中嵌入调解的可能性,通过设计特定的人工智能设备在与医疗保健关系网络的交互中进行配置。因此,扩大和复杂负责任的护理机器人开发过程,中间关怀是对其他专注于人工产品设计过程的建议的补充,这些建议也整合了关怀的伦理-例如van Wynsberghe(2013)提出的以关怀为中心的价值敏感设计。在这些基础上,中间关怀是一个负责任的机器人的建议,这意味着制度挑战,以及医疗保健系统的新实践。它围绕三个同时进行的过程进行阐述,每个过程都与所考虑的中间维度中的一个实际行动有关:监测关系和关怀过程;考虑利益相关者的意见;让恐惧和希望可以比较。每个过程可以定义为:

  建立地方公共卫生系统,以监测医疗人工智能技术的设计和引进。这意味着建立后续行动和评估程序,也适用于试点或实验项目。护理是由"所有医院",由每天在技术参与的所有行动者之间发生的物质、符号和社会流动网络提供的。如果护理关系和护理实践被置于辩论的中心,并且整个医院负责提供护理,那么我们就需要建立包括医院和其他医疗保健机构在内的机制,确保这些设备的引入符合医疗和护理的价值和优先事项,而不是,例如,为了商业或声望利益。这一监测关系和护理过程的过程特别需要公共实体确保将人工智能和机器人系统引入卫生保健环境,以满足集体健康和福祉需求;并确保人工智能和机器人的市场或创新利益不会损害管理公共卫生系统的道德和社会标准。

  考虑利益攸关方的意见,制定包容性和公众参与战略,为发展卫生领域的内部投资制定优先战略,并确定引入该战略的主要问题。鉴于这一需要,传统上从STS和科学技术的所谓“参与性转向”(混合论坛、公民会议等)中制定了多种战略。异质性的概念是这类建议的核心,利用不同的机制整合多个行动者(工程师、医生、正式和非正式护理人员、患者或亲属)的知识和专长。但是,仅仅谈论异质性组合是不够的,因为在这些组合中,并非所有参与的主体都是相同的,他们参与的方式也不相同,不确定性的分布也不均匀。不同的群体在强加其逻辑的能力上是不平等的,一些群体比其他群体更能代表技术中对关怀的主要经济工具解释(Hergesell和Maibaum 2018)。众所周知,解决这些不平等问题的参与性进程存在局限性,因此有必要制定补充战略,以便在将人工智能和机器人系统引入医疗保健相关问题上允许其他形式的包容和代表。从这个意义上说,我们建议有必要探索系统的方法来整合非正式的和自发的民众运动以及人们的恐惧和希望的表达(也被视为潜在的病人、亲属和卫生系统的照顾者)。

  选择渐进的、小的行动来“控制”发展的影响或后果,小的行动基于渐进的反馈循环和监测系统,并与每家医院或医疗机构的所有利益相关者不断辩论。这种反馈循环将确保人工智能设备的引入符合特定医院或医疗机构的护理程序,并整合所有不同参与者的关注点。毫无疑问,反馈循环形式的引入也意味着减缓医疗保健领域人工智能系统的设计和实施过程。我们理解,将响应性从根本上整合到医疗保健技术的设计中,减速是必要的先决条件。

  从这个角度来看,根据道德标准和社会需求和优先事项引入机器人和人工智能设备的责任不仅指这些设备的技术设计过程,也不限于建立强有力的法律框架来规范它们的使用。在考虑到伦理和社会关切的情况下发展机器人和人工智能,需要公众参与并对卫生系统进行体制改革,以实现更负责任的技术。监督关系和关心过程,考虑利益相关者的意见,使恐惧和希望可比较,总的来说,是将民主机制引入技术发展的一种方式。而且,如果技术和民主不相结合,谈论负责任的人工智能和机器人无疑是不可能的。如果在医疗保健技术发展的所有过程和关系中,没有将护理作为一个核心的伦理和政治命题,我们称之为“中间护理”,那么就不可能谈论人工智能和机器人中的民主。

  就像一项技术不能单独承担所有的护理或治疗一样,医疗保健领域的人工智能和机器人研究也不能只专注于一种特定的设备。在本文中,我们开发了一种基于围绕人工智能和机器人的不确定性、机器人使之成为可能的异质性和调解(我们称之为REN方法)以及关于其使用背景的伦理和社会辩论的方法。在此框架下,我们提出了一种基于伦理-政治建议的负责任的人工智能和机器人引进方法,称为“中间关怀”。本行动建议着眼于不确定因素,集体讨论在卫生保健环境中设计和使用技术设备的方法,同时尊重指导公共卫生实践及其护理网络的价值观。利用STS发展的护理伦理和衡量行动的概念,我们提出负责任的人工智能和机器人技术,重点关注具体设备在与医疗保健关系网络相互作用中的调解。我们围绕在恐惧和希望之间发生的行动阐述人工智能和负责任的机器人,并围绕行动的三个维度:(a)通过创建以监测为目的的当地公共卫生系统,监测将人工智能和机器人系统引入医疗环境时发生的关系;(b)关怀,包括与知识和技术的创造和设计相距最远的群体的关切和优先事项,并组织参与进程和利益攸关方代表的其他形式;(c)关怀是通过选择渐进的和可逆的行动,使恐惧和希望可比较。

  下载原文档:https://link.springer.com/content/pdf/10.1007/s00146-021-01330-w.pdf

点击分享到

热门推荐