世界卫生组织《人工智能伦理与治理指南》评述
2023-02-22 14:43:22   来源: 池骋 清华大学智能法治研究院   评论:0 点击:

  人工智能被认为是第四次工业革命的核心驱动力,其对人类的影响同蒸汽机和电力一样深远。但像任何强大的技术一样,人工智能造成破坏或伤害的风险同样很高。面对人工智能引发的全球信任危机,构建可信人工智能的治理框架已经成为全球共识。2019年6月,二十国集团(G20)提出“G20人工智能原则”,强调要以人为本、发展可信人工智能。1这一原则也得到了健康领域人工智能治理的普遍认同。2020年4月,经合组织数字经济工作组出台“健康领域的可信AI——G20人工智能对话背景文件(Trustworthy AI In Health:Background paper for the G20 AI Dialogue)”(以下简称“《文件》”),将发展可信人工智能置于健康领域人工智能治理的核心位置。2021年6月,世界卫生组织(WHO)发布了关于人工智能的首份指南——“世界卫生组织人工智能伦理与治理指南(WHO Guidance on the Ethics and governance of artificial intelligence for health)”(以下简称“《指南》”),意在讨论人工智能在健康领域应用的前景和风险,进而对全球人工智能的伦理治理提出有效建议。本文将结合《文件》和《指南》的具体内容,对人工智能在医疗健康领域的广泛应用、潜在风险以及治理框架进行梳理。

  1

  人工智能在医疗健康领域的广泛应用

  《文件》和《指南》表示人工智能技术在医疗健康领域有着广阔的应用前景,从临床决策、疾病预防到生物医学研究、药物开发,再到医疗系统的管理与规划,其几乎可以应用于医疗健康领域的各个方面。

  (一)医学影像

  医学影像是目前人工智能在医疗健康领域应用最广泛的场景之一,其在诊断成像方面发挥着愈发重要的作用。第一,人工智能能够识别患者诊断影像,并从多个诊断图像中提取重要特征,产生解剖区域的定量“图像”用于预后诊断或具体治疗,提高临床医生的判断效率;第二,人工智能具备深度学习能力,能基于大量影像数据和临床诊断信息进行训练,提高精准分析能力,降低误判误诊的概率;第三,人工智能可以聚合不同来源的信息,包括患者体征、既往患病史和诊疗史、患者风险因素等定制临床诊断方案、预测手术后果,以降低患者风险、优化诊疗过程。

  (二)疾病风险预测与辅助诊疗

  早期,计算机在医学中的作用被定义为辅助工具。但随着人工智能技术的发展,其正在日益改变临床和诊断护理,并声称有望取代临床医生和人类决策。目前,人工智能在预测疾病或重大健康事件的发生与改善临床护理方面有着突出表现。一方面,人工智能可以填补医疗服务工作人员短缺的空白,帮助医疗提供者作出更快更准确的诊断。例如,采用AI技术来评估罹患心血管疾病2和糖尿病3的相对风险,实现疾病的预防功能;或利用AI识别中低收入国家(LMIC)中未得到医疗诊断的潜在的结核病患者,减少不必要的发病和死亡。4另一方面,临床医生可以在会诊期间使用人工智能整合患者医疗记录,识别高风险患者和易患病群体,帮助作出治疗决定或发现临床错误。例如在中低收入国家(LMIC)中,可以通过AI预测病人对HIV药物的耐药性和疾病进展,实现对抗病毒治疗的管理,进而帮助医生优化治疗。5

  此外,《指南》还描述了人工智能应用于临床护理所带来的四大趋势转变。一是患者在临床护理中的角色演变。在传统临床护理过程中,患者承担了包括服药、改善饮食、加强体育锻炼、进行伤口护理等一部分自我护理的责任。但随着数字化自我管理技术及应用程序的普及,患者对自身医学症状的一部分自我管理责任被转嫁于人工智能程序,由此带来更加强大便利的基础护理。二是从医院护理到家庭护理的转变。远程医疗即是从医院护理转向家庭护理的产物。一方面,基于算法的医疗信息搜索引擎、语音聊天机器人在一定程度上为临床环境外的患者的健康管理发挥了积极作用,推动了向家庭护理的转变;另一方面,新冠疫情所带来的紧缺的医疗资源与无法实地就医的现实情况进一步加速了家庭护理的发展与扩张。三是在正规医疗体系之外利用人工智能提供“临床”护理的改变。人工智能所提供的卫生健康服务不再局限于医疗体系之内,而是融入到个人生活的方方面面。例如提供心理健康服务的人工智能应用频繁出现在教育、工作、社交场合;能持续提供健康监测状况的可穿戴设备更是成为普通受众的居家常备之物。四是利用人工智能进行优先排序与资源分配的转变。在医疗健康领域,决定配给供应决策与分配稀缺医疗资源一直是令人头痛的问题。但人工智能被证实可以通过训练机器学习算法来确定哪些人应优先接受护理,或何时适合停止干预措施,或何地需要分配稀缺医疗资源,进而有效解决上述问题。在新冠疫情期间,人工智能工具即对配给供应决策与稀缺医疗资源的分配作出了有益贡献。

  (三)卫生健康研究与药物研发领域

  在卫生健康研究领域,人工智能技术以生成电子医疗记录的数据为基础,广泛用于电子健康记录、生物医学研究、药物研发和临床护理优化等过程。

  其一,电子健康记录是人工智能技术在卫生健康研究领域的一项重要应用。其以患者为中心进行实时记录,并授权医护人员对健康信息进行创建、管理与共享,是病人诊断和治疗历史记录的电子化版本。相比于传统的病例记录,依靠人工智能技术的电子健康记录系统能获取海量真实世界数据,收集患者健康状况与诊疗数据,进而比科学出版物和临床支持工具等传统路径更早确定最佳临床实践。此外,人工智能还可以基于电子健康数据帮助开发或优化临床实践模型,如诊断模型、预后模型等。

  其二,基因组学是人工智能技术在卫生健康研究领域的另一项重要应用。基因组学是对生命有机体进行序列分析和功能研究的新兴科学。6一方面,鉴于人类基因组数据庞大,靠人工处理海量数据费时费力,人工智能技术有望在此类大数据集分析中发挥重要作用。例如,谷歌公司于2021年推出开源代码工具DeepVariant,运用深度神经网络对DNA测序数据进行高通量测序(HTS)7,进而精准快速识别碱基变异位点。另一方面,其还能增进人类对疾病的理解,促进药物靶标的识别和潜在新疗法的开发。2016年,IBM和奎斯特诊断公司(Quest Diagnostics)联合推出“Watson for genomics”研究,将认知计算同肿瘤基因组测序结合起来,同时筛选、利用匿名患者数据,便于更好地理解癌症背后的作用机理,以提供有效解决方案。8

  其三,生物医学研究环境被认为是人工智能应用的沃土,其有望简化和加速整个药物研发过程。具言之,人工智能可以利用机器人技术和基因靶点模型等安全有效地将药物发现过程从劳动密集型活动转化为资本密集型和数据密集型活动,9从而达到降低成本、提高效率的目的。10在具体实践中,麻省理工学院(MIT)的研究人员即训练了一种深度学习算法可用来预测分子的潜在抗菌活性。11新冠肺炎疫情期间,各机构运用人工智能技术预测疫情趋势、寻找治疗方法也卓有成效。例如,加拿大蓝点公司(Blue Dot)基于AI模型成功预测新冠肺炎疫情,并率先向外界公布讯息;伦敦帝国理工学院通过一机器学习模型发现一种用于类风湿关节炎的药物可能对肺炎病毒有效;AI药物研发公司英科智能(Insilico Medicine)称,其人工智能算法已经设计出六种新分子,可以阻止病毒复制。12

  (四)医疗系统管理与规划

  医疗卫生系统非常复杂,既涉及广泛的参与者和机构,如患者、医疗保健人员、卫生保健机构、实验室、药店、管理者、支付者和监管者等,也关涉复杂的管理性工作,如调度、计费、编码、支付等。人工智能基于算法自动化,能以更高效、准确和公正的方式执行这些重复、繁杂的任务,从而达到节约人力物力的目的。目前,人工智能在医疗体系管理方面具备的功能包括:编码、调度、识别和消除医疗欺诈或浪费等。

  其一,编码是最能体现人工智能自动化的一个应用行为。传统的人工编码通过从临床记录中提取信息,并使用诸如国际疾病分类(ICD)等各种标准对病例进行分类,以便于后续的医疗管理和研究,是一项极其复杂的劳动密集型活动。人工智能的辅助应用极大地减少了人力资源对该项重复性工作的投入,提高了工作效率。同时现阶段的人工智能可以将冗长的临床记录与医嘱、成像等其他相关数据结合起来进行分类,进一步提高了临床编码的准确性和透明度。

  其二,人工智能可以用于识别和消除医疗欺诈或浪费。一方面,人工智能开发者可以基于先前存在的医疗欺诈数据训练算法来识别潜在的欺诈行为,包括轻微的过度医疗、诱使患者支付非必要医疗费用以及编码比实际提供医疗服务更昂贵的情况等。另一方面,人工智能能聚合索赔信息与其他数据,准确衡量相关医疗手段的合理性和必要性,减少医疗浪费。例如,人工智能可以整合患者年龄、既往病史等信息以衡量某一手术是否确有必要,是否需要根据病例复杂性升级编码、提高使用费数额等。

  其三,人工智能可以实现医疗资源的合理安排与调度。真实医疗环境下,医疗工作人员与药品资源始终处于紧缺状态。患者预约后失约不仅会浪费医疗工作人员的时间、精力,也会挤占其他患者接受诊疗的机会。人工智能以历史出席数据为基础可以预测患者的就诊概率,进而对医疗资源进行合理安排调度,确保资源利用率最大化,并减少浪费性支出。例如,美国Northwell Health就已推出了一项基于文本交流的患者扩展计划,旨在减少结肠镜检查的缺席率。13

  2

  人工智能在医疗健康领域的伦理风险

  人工智能技术带给医疗健康领域的经济和商业潜能预示着其将在全球范围内获得广泛使用,但“技术乐观主义”的态度或许会使人高估其所带来的前景和利益,而忽视了可能存在的潜在风险和挑战。对此,《文件》和《指南》就人工智能在医疗健康领域的应用前瞻性地提出了“数字鸿沟”“偏见与歧视”等七项伦理风险,以下具体阐述。

  (一)数字鸿沟

  数字鸿沟是人工智能使用的一大挑战。经济合作与发展组织(OECD)指出数字鸿沟是“不同社会经济水平的个人、家庭、企业和地理区域之间在获取信息和通信技术(ICT)的机会以及利用互联网进行各种活动之间存在的差距。”14具体表现为国家之间和国家内部的各种差异。就国与国之间而言,教育水平、社会经济指标、国家财富、数字化基础设施建设以及国人数字化能力上的差距可能是造成国家间数字鸿沟的重要原因。例如,ITU最新数据显示,当前宽带覆盖率小于千分之一的经济体非洲占87.5%,而覆盖率大于40%的18个经济体有16个在欧洲。15发展中国家与发达国家在网络基础设施上的极大差距,使其在数字化技术的获取机会上并不平等。就国家内部层面而言,个人与个人之间的数字鸿沟由性别、年龄、收入、教育、种族、文化、宗教、语言和地理等一系列社会因素所驱动引起。例如,在中低收入国家,仍有12亿女性(比男性少3.27亿)由于负担不起或不信任移动互联网服务而未使用互联网技术;16在最不发达国家,只有19%的女性使用互联网(比男性低12个百分点)。17医疗健康领域,数字鸿沟对无法获取不可或缺的医疗卫生信息的人而言更是关乎生死的问题。新冠肺炎疫情期间,依附于智能终端生成的“健康码”“行程码”使得一大批不会使用智能设备的老人,因无法证明自身健康状况而被剥夺自由通行的权利,甚至错失疾病治疗的最佳时机。

  除此之外,《指南》还指出人工智能应用本身也可能会深化并加剧已有的不平等,扩大数字鸿沟。随着算法的快速迭代与算力的迅速扩张,人工智能技术向前发展的步伐不可逆转并日益形成闭环,由此加剧数字技术市场产生马太效应,造成数字弱势群体在不久的未来将被技术边缘化甚至被消灭。

  (二)数据收集与使用风险

  生物医学大数据是训练人工智能算法和验证算法模型的基础,其质量和可用性关乎医疗诊断的速度、质量和准确性,对人工智能在医疗健康领域的后续使用至关重要。《指南》指出健康数据在收集与使用过程中存在以下三方面的风险:

  其一,所收集健康数据的质量问题。一方面,由于主观(数据收集者、算法设计者的偏见)或客观原因(没有数据的情况),用于算法训练的健康数据可能因性别、年龄、种族或其他因素缺乏代表性而使得人工智能应用本身存在系统性偏见。另一方面,质量欠佳的数据可能导致模型从数据中预测出的结果是人工产物,而非真实的临床结果,进而影响算法的性能和临床结果的准确性。

  其二,个人隐私保护问题。健康数据的收集、使用、分析、共享等各个环节都关涉个人隐私。就收集而言,技术提供者收集的健康数据可能超过所需数据的最小限度,导致数据过剩或侵害公众对个人数据的自主决策权。例如新冠肺炎疫情管控前期,借用防疫之名过度收集公众信息的现象屡禁不止。就使用而言,非法使用个人健康数据或使用行为超出限度,或将使知情同意机制被架空、使患者遭受非难或歧视,同时引发严重的伦理、法律和人权问题。此外,健康数据的特殊性与逐步商业化也引发人们对儿童权利、数据控制权以及企业或第三方责任的担忧与思考。就分析而言,保密是医疗实践所公认的核心义务,但保密义务难以控制健康数据的产生与传输。一方面,机器学习可以从普通的个人数据中分析出敏感细节,将其转化为可能需要保护并专门归类的敏感数据;另一方面,人工智能可以聚合多种来源的数据,对去标识化、匿名处理或伪匿名处理的健康数据进行二次识别。就共享而言,共享或传输个人敏感数据,可能会侵犯当事人的尊严或致使当事人面临网络盗窃或意外泄露的风险。18在Dinerstein诉芝加哥大学及谷歌案中,Dinerstein指控美国芝加哥大学向谷歌共享数十万条“去标识化”的患者记录用于开发新型机器学习工具,但相关记录的匿名化处理不够充分,仍会使患者面临隐私泄露的风险。19

  其三,数据殖民主义。“数据殖民”被认为是一种新兴资源的占用模式,伦敦政治经济学院媒体与传播系教授尼克·库尔德利将数据殖民主义定义为“通过获取人类经验并将其转化为具有潜在经济利益的数据,再从中攫取价值的方式。”20随着当前对个人健康数据收集、处理和使用的普遍化,医疗健康领域的每个患者几乎都是“数据殖民”的被殖民者,尤其在缺乏严格监管框架和数据保护法的中低收入国家。一方面,由于算法的黑箱性,数据控制者与数据提供者间天然存在一道鸿沟。数据提供者对其数据的使用情况知之甚少,且对严重影响个人尊严和权利的数据使用行为少有争论抗议的余地。另一方面,数据监管框架和保护法规的缺乏致使数据提供者即使获得知情同意权,也难以向数据控制者行使权力制衡。

  (三)责任缺口与不可追溯

  问责制确保受害者能够基于其所遭受的不利影响向相关个人或机构追责,是维持信任和保护人权必不可少的保障机制。然而,人工智能技术的不透明性、对人工输入数据的依赖、交互以及软件的复杂性等进一步加剧了责任分配问题。

  首先,责任缺口是人工智能误诊情形下予以责任分配的第一大挑战。当人工智能发生误诊时,WHO认为临床医生不应承担责任,其原因在于:第一,人工智能技术具有不透明性,临床医生无法理解也无法控制人工智能系统将数据转换为决策的过程。第二,使用人工智能作出决策可能系医院系统或其他外部机构的要求,而非临床医生的选择,让技术使用者背负不属于其的负担有失公允。WHO同样认为人工智能的开发者和设计者也不应承担责任。因为人工智能能通过机器学习自我迭代,其引导系统运行的每一步并不依赖于开发者和设计者,甚至可能超出开发者和设计者的预期。在这种情况下即会产生责任缺口的问题,使得患者的损失不可归责或救济。

  其次,责任的可追溯性是责任分配所面临的第二大挑战。人工智能的发展以及医疗健康决策的作出涉及人工智能设计者、开发者、医疗系统、临床医生等多方主体,且往往医疗损害责任所涉主体并不单一。在此情形下,即使能确定责任的归属,也难以在法律和道德层面对分散的风险贡献者进行责任分配。这也意味着遭受伤害或损失的个人可能因风险贡献者之间的相互推诿而无法获得相应赔偿,以至于社会逐渐对此技术丧失信任。

  再次,技术公司单独或联合发布的伦理指南的执行是责任分配所面临的第三大挑战。当前,医疗健康领域人工智能技术的应用风险获得广泛关注,各大科技公司单独或联合发布相关规范或标准予以责任承诺,但在缺乏具有法律约束力的国际标准的情况下,这类指南逐渐沦为科技公司进行义务免除、责任逃逸的工具。首先,该类规范往往是科技公司一言堂的产物,公众无法参与,更无法发挥作用。其次,该类规范一般只能指导企业设计和部署技术的预期行为而无法肩负侵权损害的责任,会加剧责任缺口问题。最后,该类规范的实施与执行往往是企业的内部行为,缺乏公示效力、评估机制与监管手段,难以发挥真正的效果。

  (四)损害人类自主决策

  人工智能旨在增强人类在公共卫生和医疗实践中的决策能力,但在某些情况下已经动摇了人类在知识生产中的中心地位,导致认知权威发生偏移。《指南》具体介绍了以下三种情形。

  其一,在医疗决策过程中,人工智能与临场医生可能出现“同行分歧”。在此情况下,由于缺乏明确的判断标准与决断能力,两者之间任选其一都会出现不利后果。若以临床医生的决策为最终判断,则人工智能机器的使用毫无价值可言;若医生接受了机器的判断,则意味着他们必须接受基于黑盒算法的决定,将引发伦理担忧。同时也意味着这将削弱专业医生的权威性,弱化其责任感。

  其二,人工智能决策权的增强将会导致人类丧失控制权,进而影响临床护理和医疗体系的各个方面。就患者本身而言,人工智能技术在医疗健康领域的广泛应用会使得其越来越多的个人数据被收集,人工智能使用数据、作出决策的方式和原因缺乏透明度,患者会逐渐失去共同决策权,无法在关乎其健康的决定中发挥自主作用。就医患关系而言,人工智能技术的介入可能使得医生无法参与到目前对临床护理和医患共同决策都不可或缺的交流讨论中,从而减少临床医生为患者提供健康促进干预措施的机会,进而影响一般的支持性护理。

  其三,人们依赖于计算机决策支持程序指导临床护理的资源分配与优先排序会产生伦理担忧。一方面,用于机器训练的算法数据可能存在偏见,这种偏见可能导致对性别、种族、社会经济地位相关的决策存在不公,从而让资源向优势人群倾斜。例如美国加州一家医疗机构利用算法规则分配新冠疫苗,最终出现感染概率大的医护人员几乎分配不到现有疫苗,而感染概率小的“高级别”医生却获得大量疫苗的不公平结果。21另一方面,人工智能技术越来越多地融入人类决策,使用者和管理者会逐渐对此产生依赖而忽略其蕴含的伦理问题。例如,一些国家使用人工智能技术自动对患者进行分类,其本意在于优化患者的人口流动、提高资源利用效率,但此类决策往往会影响处于不利地位的群体获得公平治疗的机会,损害人类尊严。

  (五)偏见与歧视

  人工智能技术往往会复制社会偏见和歧视,并应用于公共服务供应中。有研究表明,美国和其他国家存在的种族偏见正影响着人工智能技术在健康领域的表现。2019年10月发表于《科学》期刊的一篇研究发现,一项广泛应用于美国医疗系统中的用于引导医疗决策的算法中存在严重的种族偏见。该算法用成本来衡量需求,在需求水平相同的情况下,美国医疗系统在黑人身上的支出少于白人,由此得出白人病人的病情重于黑人病人的结论,使得接受医疗的黑人病人的数量减少了半数以上。22

  此外,《指南》还指出了引发偏见的四个因素。其一,用于训练算法的数据存在偏见会使得人工智能技术将社会中的系统性偏见引入技术应用,引发规范性偏见,并进一步加剧、固化已有的不平等。其二,数字鸿沟与数据收集的不平衡也会加剧数据偏见。前者使得  能够提供于人工智能训练的数据量更少,相应地其从服务中获益的可能性也更低;后者同样如此,且即使改善对劣势群体的数据收集尽管能优化人工智能的性能,但会存在数据殖民主义的风险。其三,人工智能开发者多样性不足也是引入偏见的一大原因。偏见往往取决于人工智能技术的出资者和设计者,当人工智能技术由某一群体或性别的开发者开发时,标记数据或验证算法的人的多样性不足即会提高设计中存在偏见的可能性。其四,人工智能系统被应用于现实中时也可能导致偏见形成。例如若需要使用某个人工智能系统的人群的相关情况(如年龄、缺陷、患病状况的差异等)未被纳入考虑时,人工智能技术就可能会造成对这些人群的歧视,或无法正常运作。又如一项基于某一国或某一地区的人口数据训练的人工智能技术被应用于其他地区时,可能会形成对其他人群的歧视,或形成错误的诊断或预测。

  (六)病人安全与网络安全风险

  人工智能技术在卫生健康领域应用时会给病人安全和网络安全带来风险。就前者而言,一方面,人工智能的使用可能会给病人的安全带来风险,而这些风险在技术审批的监管审查中可能并不能被预见到;另一方面,开发者(或资助、指导人工智能技术设计的实体)也可能出于不道德的目的设计人工智能技术,优化结果,为供应商牟利。就后者而言,人工智能技术可能成为黑客恶意攻击的目标,通过关闭系统、操作训练算法的数据,从而导致医疗体系崩溃。无论是对病人安全的威胁还是网络安全风险,人工智能相比于医疗服务提供者的判断失误或其他传统的人为错误,其所带来的风险更加深不可测。因为一旦错误在人工智能算法中被固定或关涉整个医疗体系的网络被破坏,依赖于人工智能技术的健康医疗措施在广泛应用过程中会在短时间内对成千上万人造成难以弥补的伤害,其损失是传统医疗难以比拟的。

  (七)全球气候危机

  世界卫生组织认为气候变化是一项亟待解决的全球卫生挑战,而人工智能所带来的碳排放问题或将增加疾病负担,与卫生部门的工作宗旨相悖。一方面,人工智能所带来的碳排放问题日益严峻。《麻省理工科技评论》的高级人工智能编辑Karen Hao表示,训练一个人工智能模型的碳排放量相当于5辆汽车的寿命。23随着人们对数字服务需求的日益增长,为这些服务提供动力的数据中心排放的温室气体占全球温室气体的比例将会越来越高。如果医疗健康领域的人工智能最终成为温室气体排放的净贡献者,这将意味着卫生部门内的一项活动本身将与疾病负担的增加有关。另一方面,鉴于开发人工智能模型的高昂进入成本,人工智能技术研究主要在高收入国家进行,其在卫生健康领域的日益完善和对健康的良好影响也主要贡献至高收入国家;而由于碳排放增加和气候对健康造成的负面影响则主要作用于低收入国家。由此,健康领域人工智能的广泛应用可能会进一步损害低收入国家人群的身心健康,并进一步加剧高收入国家与低收入国家之间的贫富差距。

  3

  可持续发展健康人工智能的治理框架与伦理治理建议

  针对上述风险与挑战,世卫组织确定了有关推动卫生健康领域人工智能伦理使用的六大核心原则与伦理治理建议。

  (一)六大核心原则

  1、保护自治权

  自主性原则规定,使用人工智能或其他计算系统不得损害人类自主性。在医疗方面,这意味着人类应继续掌控医疗体系和医疗决策。人工智能系统的设计应在医疗服务提供者、患者等人群作出知情决定时处于辅助地位。尊重人类自主性还需要履行相关义务,以便提供者能够获得必要信息,确保人工智能系统的安全和有效使用,并方便人们了解此类系统在护理中所发挥的作用。此外,它还要求保护隐私和机密,通过合理的数据保护法律框架确保有效的知情同意等相关义务的履行。

  2、促进人类福祉、人类安全和公共利益

  促进人类福祉、人类安全和公共利益要求人工智能技术不得伤害人类。人工智能技术设计者应参照明确定义的用例或标识,符合相关监管要求,确保安全性、准确性和有效性。在实践过程中,应采取措施控制人工智能应用质量,并随时间的推移加以改进。同时,应谨慎管理人工智能技术提出的不恰当、无法获取或无法负担的医疗诊断或警告,并采取适当措施保护个人免遭非难或歧视。

  3、确保透明度、可解释性和可理解性

  人工智能技术应该易于开发人员、医疗专业人员、患者、使用者和监管者理解,其中确保可理解性的两大主要方法为提高人工智能技术的透明度和可解释性。前者要求在设计或部署人工智能技术前,公开或记录足够的信息。后者要求人工智能技术应基于受众的理解能力予以解释。此外,所有算法都应在即将应用技术的环境中进行严格测试,以确保其满足安全性与有效性的标准。

  4、培养责任感和问责制

  建立问责制要求人们需要对系统可以执行的任务及其实现预期性能所需的条件制定清晰透明的规范,确保医疗服务提供者能够负责任地使用人工智能技术。尽管特定任务是由人工智能技术执行的,但利益相关者有责任确保人工智能技术能够执行所述任务,且由经过适当培训的人员在适当条件下加以使用。一方面,在人工智能技术开发和部署中,患者和临床医生可对其进行评估,“人工保证”其履行责任。另一方面,对于受到基于算法决策的不利影响的个人和群体,应设立适当的机制供其提出质疑,获得补偿。

  5、确保包容和公平

  包容性要求无论年龄、性别、收入、种族、民族、性取向、能力或其他受人权法保护的特征如何,人们在卫生健康领域都能广泛、公平、适当地获取和使用人工智能。人工智能技术不应带有偏见,还应尽可能减少技术提供者和患者、决策者和人民、创造与部署人工智能技术的企业和政府以及使用或依赖人工智能技术的群体间难免存在的权力差距。同时,应对人工智能技术的使用效果进行监控与评估,不得助长现有的偏见和歧视。

  6、促进具有响应性和可持续性的AI发展

  响应性要求设计者、开发者和使用者在实际使用过程中,持续对人工智能应用程序进行系统透明的评估,确定人工智能是否根据沟通过的合法预期要求作出充分且适当的回应。同时,响应性还要求人工智能技术能更广泛地促进医疗体系、环境和工作场所的可持续发展。即人工智能系统的设计应尽量减少其生态足迹,提高能源效率,使人工智能应用朝着减少人类对地球环境、生态系统和气候所造成的影响这一社会目标而努力。

  (二)构建健康人工智能的伦理治理建议

  1、促进技术的伦理化、透明化设计

  世卫组织对人工智能开发初期提出了伦理化、透明化的设计要求。其一,潜在终端用户及所有直接、间接利益攸关方应参与到人工智能的开发过程中,提供相关伦理考虑要求,将道德价值转化为明确的情境设计要求,明确将健康人工智能建立在人类尊严、自由、平等、团结等价值观的基础之上。其二,设计者及其他利益攸关方应确保人工智能系统执行明确的任务,保证其准确性和可靠性足以提升医疗系统的容量,促进患者的利益。同样,设计者及其他利益攸关方还应能够预测并理解潜在次级产出。其三,设计者应确保利益攸关方充分理解人工智能系统执行的任务,确保其具备能够安全、高效完成任务的条件,以及有可能降低系统性能的条件。其四,设计者在践行“为价值而设计”24的范式时,应保障恰当的伦理标准与不断发展的专业准则,同时不断更新相应程序。其五,应确保设计开发人员获得教育与培训,确保其将伦理考量纳入设计过程和选择之中。

  2、强化公众参与

  要想在卫生健康领域高效使用人工智能技术,就需要建立起公众、医护人员及患者对人工智能技术的信任。对此,世卫组织提供了三种解决方法:其一,允许医疗人员和开发者在“现场环境”中测试人工智能的新产品或服务。其二,重新设计针对医疗领域工作人员的培训课程,帮助医疗专业人士理解和适应人工智能的应用,了解其益处和风险,同时明确在使用中涉及的伦理问题。其三,人为担保。人工智能技术开发者直接与医护人员和患者合作,在人工智能技术开发和部署的关键节点进行患者和临床评估。

  3、充分进行影响评估

  影响评估可以提供关于人工智能应用的可能后果及(正面和负面)风险的技术信息,改善决策和决策过程中的透明度、公众参与度,并引入相应框架进行适当后续跟踪和衡量。《指南》从政府、企业和独立第三方的角度分别要求了影响评估。对政府而言,应制定法律和政策,关注伦理、人权、安全、数据保护等内容,并将影响评估贯穿于人工智能系统使用的整个周期中。对企业而言,公司或开发者应根据政府法律政策或《联合国工商业与人权指导原则》进行影响评估。此外,人工智能技术的影响评估应在该技术引入前后由独立第三方进行审计并发布。

相关热词搜索:人工智能

上一篇:人工智能大变局:科技巨头迎来ChatGPT“冲击波”
下一篇:"很多中国人正热衷把玩美国AI,却不知已落入一个情报巨网"

本站内容除特别声明的原创文章之外,转载内容只为传递更多信息,并不代表本网站赞同其观点。转载的所有的文章、图片、音/视频文件等资料的版权归版权所有权人所有。本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如涉及作品内容、版权和其它问题,请及时通过电子邮件或电话通知我们,以便迅速采取适当措施,避免给双方造成不必要的经济损失。联系电话:010-82306116;邮箱:aet@chinaaet.com。
分享到: 收藏