社会治理:人工智能时代算法偏见的问题与规制
2022-01-13 14:36:58   来源:互联网大数据处理技术与应用   评论:0 点击:

  随着人工智能、大数据的快速发展,社会已经进入了算法社会。算法已经全面渗透于社会经济、生活及管理的运行。然而算法并非是完全客观、价值中立的技术。算法运行过程中产生的偏见及问题,其本质是社会偏见在人工智能时代的映射,逐渐显现侵害社会公众的人格平等权、隐私权,并对数据安全形成威胁甚至破坏,从而导致对社会危害现象的发生。因此,不应禁锢于算法中的技术乌托邦理念,通过把握算法偏见产生的环节及其存在的法律及事实风险,减少其因不确定性危害风险带来的对社会秩序的冲击,有必要及时建构法律和综合治理的风险防控体系,并将对算法偏见的防控治理纳入常态化社会治理体系中。

  一、算法问题现象:算法与算法偏见现象产生的环节

  算法的英文名称原为“algorism”,意指常见的加减乘除等数字运算法则,后因9世纪波斯数学家al-Khwarizmi在数学上提出了算法这个概念而在18世纪演变成为“algorithm”。在经典的计算机科学教科书中,算法通常是指为了实现特定目标而通过设立一组有限、明确的操作步骤,将给定的命令输入进去来转化为所需要的结果。区别于传统的算法范式,人工智能先锋人物杰弗里·辛顿提出了深度学习算法的论点,而目前引起大家讨论和争议以及本文讨论的都是深度学习算法。

  算法开启了新一代人工智能的先河,既是技术进步的产物,也是对现实需要的积极应对。算法广泛应用于我们生活的方方面面,给交通、医疗、就业、娱乐等领域带来了极大的便利,人们也逐渐习惯通过算法程序来获取信息、认识世界。但是,随着人工智能时代的不断演进,算法被不断地普及和运用,算法带来的偏见现象开始受到人们的关注,例如加纳裔科学家Joy Buolamwini偶然发现人脸识别无法识别她,除非戴上白色面具,此后她的研究发现,IBM、微软和旷视Face++三家产品均存在不同程度的女性和深色人种“歧视”。由此,算法的问题日益暴露,算法偏见的概念及现象引起了人们的关注。对于该问题的现象与立场,不同学者有着不同的理解和解读。有学者认为,算法偏见是指一种预测相对于另一种预测的非预期算法偏好,导致法律或伦理上产生不恰当的影响;有学者认为,算法是机器学习的结果,算法偏见是机器学习形成或强化的偏见;也有学者认为,算法偏见是算法程序在信息生产与分发过程中失去客观中立的立场,造成片面或者与客观实际不符的信息、观念生产与传播,影响公众对信息的全面、客观认知。对于该现象,不可否认的是,学者们尽管表述各异,但共识则是:算法偏见的本质是人工智能时代社会偏见的一种体现。换言之,算法并不具有绝对中立性,它的客观性仅仅体现在算法运行中。为此,有必要对算法偏见产生的环节进行解读。

  算法在实际被投入应用前,要经过问题定义与机器学习和训练两个阶段。问题定义简单来说就是把明确了的任务转化成具体变量,而机器学习和训练阶段大致可以简化为三个环节:输入环节→学习环节→输出环节(具体细分为九个步骤,如下图所示)。输入环节主要是对所收集的能够准确反映出定义问题的数据进行清理、筛查;学习环节是依靠计算机自身的处理能力,选择模型将前个环节所筛查的数据再次进行分析、完善;输出环节是最后一个环节,通过模型处理得到对应结果。从整个运行的步骤不难看出,偏见贯穿了整个过程。

  

  (一)运算前的偏见

  1.算法运行规则的“自带偏见”

  当计算机需要运行完成特定的任务时,就要编写特定的算法。无论是问题定义,还是数据收集、模型的选择,算法设计人员的主观意识总是有意或无意融入整个运行过程,他们的知识背景和立场是否受过专业训练,是否有足够的背景知识及理念的构成,这些都是对算法公正性、客观性的挑战。有国外研究团队通过选取并考察了微软和Facebook等大公司支持的图像训练数据集MSCOCO发现,一些标签与性别深度绑定,比如系统会认定站在厨房、做家务、照看小孩子的人为女性,而开会、办公、从事体育运动的则是男性。此外,一些企业还用算法对所接收的简历进行筛选,若是该企业不想招女职员,就会在设计该算法时设定不利于女性求职者的内容。

  2.输入数据中的偏见

  大数据和计算机领域内有个盛行的定律叫“Garbagein,Garbageout”,与之对应在算法里的表述为“Biasin,Biasout”,指输出的数据质量取决于输入的数据质量,带有偏见的数据被输入,则输出的也是带有偏见的数据。输入数据存在偏见的原因主要有四个方面:(1)数据选择带来的偏见,即算法的设计人员在对规则进行设计时就已经在数据来源、数据占比中掺入了个人主观想法;(2)数据不及时更新带来的偏见,即收集了过时的数据,导致了结果受到了潜在偏见影响;(3)数据的偶然性带来的偏见,抽样难以保证随机性,少数群体的数据被选择的几率较低,导致算法最终的结果会偏向于多数群体一方;(4)偏见数据的循环利用,即带有偏见的数据被用于其他算法模型中,导致输出的数据带有新的偏见。

  (二)运算中的偏见

  算法的运行是把数据输进既定的算法模型按照程序步骤输出运算结果,整个过程看似中立无偏见,但事实上并非如此。算法系统就像是个“黑箱”,即机器的学习和训练是不为外人所熟知的,机器学习与环境是离不开的,它在与环境信息交互的过程中学习和复制种种带有偏见的行为。2016年,一款由微软公司专门为年轻人推出的智能陪聊机器人Tay,在经过不到24小时与年轻人的聊天学习后,变得脏话连篇,言论带有种族歧视,被迫下架。这个例子有力地佐证了机器学习在过程中会产生新的偏见的观点,而距离原定目标,即靠实践经验吸收优势予以补充模型的想法相去甚远。“机器学习就是程序通过实例提取模式,并使最初的算法或模型在实例中不断优化的过程。”算法不能决定用户输入数据的性质或特点,只能被动对输入的各类数据进行学习,换句话说,若输入数据的互动者向算法输入了具有偏见的新数据,那学习之后的算法就是一个偏见算法。

  二、现实困境:算法偏见的潜在风险与危害

  随着人工智能和互联网的发展,我国已经进入了数字时代,算法充斥着我们日常生活的各个领域,如教育、医疗、刑事司法,甚至在一定程度上取代了公权力决策。随着人工智能的不断发展,不同国家、地区、行业之间,由于对信息的拥有、应用程度以及创新能力的差别,导致信息落差的现象愈发严重。“没有历史深度和社会深度的计算深度只是浅薄学习,而非深度学习。”对算法偏见带来的潜在侵害风险的社会治理虽然已经开始起步,但仍然任重而道远。

  (一)对公民平等权侵害的风险

  根据我国《宪法》第三十三条第二款规定:“中华人民共和国公民在法律面前一律平等。”平等权是公民的一项基本权利,指公民同等地依法享有权利和履行义务,具体而言包括权利平等、义务平等、法律适用平等、法律界限平等这四部分。2018年关于机器学习系统中的平等和不歧视权利保护的《多伦多宣言》中提出,系统使用机器学习技术可以极大而迅速地改变或加强权力结构或造成歧视,侵害公民的平等权。在性别歧视抑或是种族歧视的背后其根本在于人工智能系统存在着算法偏见并对某类个体进行了特殊化对待。因此,在这发展迅猛的智能时代,算法偏见自身的功利导向性使其对社会成员的平等权侵害会加速甚至可能放大,如在2015年谷歌图像识别算法误将黑人判为大猩猩事件中,算法系统正是基于算法偏见的导向性而出于惯性辨识错黑人,这一事件足以展现算法偏见对黑人群体平等权的侵害,虽然事后谷歌屏蔽了相关词条,但并没有根除系统中的偏见,相反只会不断加深。

  (二)对公民隐私权侵犯的风险

  隐私权是指公民的私人空间、私人信息、私人活动不受他人干扰和侵犯的权利。同时,对于私人信息,是指以电子或者其他方式记录的能够单独或者与其他信息结合识别特定自然人的各种信息,包括自然人的姓名、出生日期、身份证件号码、生物识别信息、住址、电话号码、电子邮箱、健康信息、行踪信息等。在隐私权保护方面,处在发展迅猛的人工智能时代,我们不能再像过去那样仅仅将故意泄露私密信息、跟踪、偷装摄像头等方式视为侵犯隐私权的行为,而应该将侵犯隐私权赋予智能化与数字化的新特征。当前,算法偏见对于公民隐私权的侵害主要体现在算法偏见会在其自身框架内对公民的隐私在没有公民授权下便获得并使用,而且,为了系统运算的便利会将公民隐私的适用范围不断扩大。同时,算法偏见还会侵害公民对个人数据的被遗忘权,将公民要求删除的个人数据继续留在系统的数据库,这对侵犯公民隐私留下了严重后患。因此,算法偏见的侵害行为,则可能增加侵犯公民个人信息犯罪的行为。

  (三)对数据安全破坏的风险

  根据我国2021年6月10日刚通过的《数据安全法》第三条规定:“数据处理,包括数据的收集、存储、使用、加工、传输、提供、公开等。数据安全,是指通过采取必要措施,确保数据处于有效保护和合法利用的状态,以及具备保障持续安全状态的能力。”算法系统是人们在互联网时代下处理数据的重要工具,带有偏见的算法因其设计人员的偏见或自身的不当深度学习,一方面过度采集数据,利用数据间的关联程度进行溯源,窥探到人们、企业的核心数据,很大程度上容易造成个人信息和商业秘密的泄露;另一方面,算法在深度学习中会基于追求数据面的完整而去汲取不合适的内容,比如前文所述的陪聊机器人Tay,在与年轻人的聊天中学习了不少的脏话,在一定程度上破坏了数据完整性。因此,通过收集对其认为有一定价值的数据并进行推导的算法程序本身对数据安全构成了威胁,并且这种破坏会波及整个网络系统。

  三、正当性求解:规制算法偏见的必要性

  (一)法律规制的必要性

  随着人工智能、大数据的快速发展,我们已经进入了算法社会。算法作为一种与时代发展紧密相关的技术,各类算法系统在我们的社会生活、工作中将会继续扮演重要角色。社会上大多数人都认为算法只是一串客观的代码运作,是中立、客观的。然而实践证明,算法存在的偏见也在不断产生新的社会问题。因此,法律对算法的规制显得尤其重要。而现行法律对算法偏见的规制则显得力不从心,因此亟待辨明由此带来的危机和挑战。

  首先是行政法规制的困境。据前文所述,算法偏见一定程度上侵犯了公民的个人信息权,主要体现在设计研发者往往在一开始设计算法程序时为了利益最大化而为其赋予最大限度获取信息的权限,往往对公民的隐私在没有公民授权下便获取并使用。而且,为了系统运算的便利会将公民隐私的适用范围不断扩大。虽然我国《网络安全法》第四章中规定了如何保障网络信息安全的具体措施,但因为算法的整个运行不具备独立性,它是不同主体呈立体化的合作模式,因此个人信息遭受侵害的可能性大大增加,这给行政法的规制带来更多的挑战。

  其次是民事法规制的困境。面对算法偏见所引发的侵权问题与违法行为,关于如何归责、由谁承担责任、归属于哪个部门法等问题,我国当前的法律规范尚无明确规定。以无人驾驶汽车Uber伤人案为例,对于在这场事故中究竟是对设计者、经营者还是驾驶员追责存在不同观点和争议。根据《民法典》“侵权责任”编第四章“产品责任”的规定,我国采取的是过错责任原则,生产者、销售者以及运输者、仓储者之间的责任分配明确。但是从无人驾驶汽车案来看,归责思路并不是传统侵权意义上的归责,而是要考虑导致侵权的发生究竟是操作失误还是设计缺陷,这一点在民事法律上尚未有明确的规定。

  最后是刑事法规制的困境。人工智能的算法偏见,会使得涉及此类的刑法问题更加复杂。现实中,对于由算法偏见本身导致的犯罪问题,刑法作为最后一道防线应首先需要将其侵害法益明确化,只有分析出所侵害的法益具体内容,才能够在刑法中找到合适的罪名加以判处。但是,由于我国尚处于弱人工智能时代,刑法目前未对此类相关问题作出相应的回应,刑事法中直接应用于算法问题的规制条文仍然是空白。

  (二)价值导向的紧迫性

  算法偏见不是一个新兴问题,但也不单单只是技术问题,它已然成为各领域专家关注并且亟须解决的社会问题。社会的进步固然需要先进的技术,但更需要坚持住基本的价值导向。

  1.算法应凸显人类主体地位

  人是认识世界、改造世界的主体,这一观念为所有人知晓,然而随着科学技术的迅速发展,机器人无论是在意识还是在创造性方面都已经能向人类发起挑战,柯洁败给阿尔法狗的例子就是最好的佐证。尽管算法给人们的日常生活带来了极大的便利,但在一般情况下,算法已将我们视为可计算、可预测、可控制的客体,通过对我们的消费心理、爱好等深入学习分析,从而推断出我们所心动的“物料”。具体而言,算法对用户提出选择产品的建议,并为用户作出决策,这意味着大多数人失去了自由选择的权利,接受到的都是单一的信息而无法接触多样化信息,视野逐渐变窄,而个人自主性则不断减弱。从法律层面来看,人类始终是应然和实然的主体,每个人都应享有平等权,在数字时代下,更应该突出人的主体地位,对技术施以一定的法律规制,从而使其更好地为我们所用,而不是放任其肆意发展,使得人类成为它所“操控”的客体或是成为被动的服从体。

  2.抑制算法放大的人类偏见的必要性

  真实的世界里,偏见无处不在。人类偏见一直都是复杂的社会问题之一,很多国家为了减少偏见而通过立法赋予不同群体平等权,给他们提供更加公平的机会。而在数字时代的今天,随着人工智能的普及,算法却加大了这种人类偏见,即算法偏见本质上是一种社会偏见。传统观念坚持的是一种“技术乌托邦”的状态,即大多数学者认为技术始终处于中立的立场,它不受人类思想的左右。但正因为算法在观念上被认为是由数据和代码所组成,是客观的、公正的,大量的算法才更容易地充斥着我们日常生活的方方面面。然而,实践表明,看似中立的算法其实并不绝对客观,由于其较强的可操作性,反而将人类偏见进行了放大。就如前文所述,2015年的谷歌公司开发的图像识别算法竟错误地将一些黑人的照片分类为“大猩猩”。因此,有必要对此建构针对性的抑制算法偏见的监管机制。

  3.保护公民人身、财产安全的必要性

  如前所述,算法并不是中立的,不存在绝对公平公正的算法。现实中算法偏见随处可见,尽管不是每一种算法偏见都能对公民的人身财产产生威胁,但只要存在造成危害的可能性,就需要我们去关注和提前预防。比如在司法领域引入人工智能,稍有不慎,算法偏见也有可能衍生一些负面影响:例如对有前科的犯罪分子(不符合累犯的构成条件),算法偏见可能就直接将其列入重复犯罪的处罚对象系列而施加更重的刑罚;如此不仅不利于维护司法的公平公正,实际上也是在损害司法的公正和执法的严谨,从而损害人们对司法公正的信赖。此外,尽管对数据的性质探讨尚未形成统一的意见,但数据确实是可被存储乃至交易的,一些数据交易平台强化了数据的财产属性,如果算法偏见不被加以规制,将会导致数据保护和数据流动之间难以平衡,不充分的数据流动使得市场提供的服务和价格难以达到预期效果。因此,法律应最大限度地发挥作用,在保持与科学发展的同步时,坚守不能背离所遵循的价值观念和立场。

  四、建构全方位对算法偏见的规制体系

  现如今,人工智能正在不断影响世界,无论是医疗、教育,还是就业、金融,越来越多的行业决策都在依赖算法系统而作出。斯科特·拉什指出,在媒体和代码无处不在的社会,权力越来越集中于算法这种生成性规则。算法尽管成为促进经济发展、加强社会建设的工具,但其发展的不确定性必然会给当前法律和社会伦理带来冲击和困境,甚至对政府、对社会的管理乃至全球治理产生重大影响。对社会治理而言,算法偏见的本质是人类偏见,因其复杂性和不透明性而产生的影响远远胜于传统的人类偏见。因此,为了避免不断变化发展的算法偏见带来的社会风险,我们必须认真对待算法偏见,摒弃“技术乌托邦”的观念,在保障和促进人工智能朝着更强的形态发展前提下,重视算法偏见现象的治理。事实上,当前政府部门也在开始重视对人工智能发展的规制。国务院2017年制定的《新一代人工智能发展规划》明确规定,在大力发展人工智能的同时,必须高度重视其可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展。这些规定说明了人工智能带来的风险问题也正在引起国家的重视。因此,对于算法偏见的治理,除了政府部门的指导性意见外,还亟须建构体系化的规制机制。

  (一)法律规制体系的建构

  首先,行政法的强化规制。在大数据时代,公民个人信息保护的重要性不言而喻,算法程序的运行同样需要融入保护公民个人信息的设计理念。作为前置性法律治理功能的行政法规,行政法的监管和预防必不可少。目前的《网络安全法》中虽然明确了网络运营者的主体资格,包括电子信息服务提供者、app下载服务提供者等,但主体的多维度联系性使得算法程序的运行变得更为复杂化。因此,为了降低侵害公民个人信息的风险,加强网络监管力度,有必要对该法第四章的规定进行完善,对研发人员、经营者等主体在研发、经营的过程中,坚持保障公民个人信息这一原则,不得增加获取及过度利用个人信息的权限,一切均以用户的知情、统一范围为准,平衡人工智能发展前进性和保障信息安全的关系。值得重视的是,尽管有网络安全法的规制,对于已步入人工智能的当前社会而言,行政法对此的规制体系仍然较为薄弱,依笔者所见,应尽快建构适合针对人工智能运行尤其是对算法偏见有具体监管措施的行政法体系。

  其次,民事法律的规制。当前,民事法律方面,为了应对算法偏见引发侵权无明确的归责原则和责任承担方式等相关问题,有必要在《民法典》“侵权责任”编第五章中增加规定,对于存在算法偏见产品致人损害的情形,责任的归责需要具体问题具体分析。一方面,若完全不需要人类操作的人工智能产品,依据产品责任其他规定确定责任问题,由算法程序的研发设计者承担主要责任;另一方面,若需要人类配合的产品,应通过对产品进行智能化定级从而确定人的责任,若产品的智能化等级越高,设计研发者所承担的因侵权而产生的责任就越大,反之则由配合者承担主要责任。此外,在责任承担方式上,应根据违法行为的程度加以配对相应的责任种类。

  最后,刑法的规制。人工智能技术在加速社会发展的同时也带来了一定的风险,算法偏见自身的不可预测性和歧视性同样需要刑法的规制。对于我国的现行刑法而言,《刑法》第二百八十六条的破坏计算机信息系统罪可以适用于算法偏见的规制,该罪保护的法益是计算机信息系统的安全,具体为各种计算机信息系统功能及计算机信息系统中存储、处理或者传输的数据和应用程序。而算法偏见基于自身的功利性特征,会倾向于选择适用简便且能够达到利益最大化的程序,因而就会出现将系统内不满足“需求”的数据和程序删除的情形,从而破坏了计算机信息系统内的数据和应用程序;而《刑法》第二百五十三条之一“侵犯公民个人信息罪”仍然是适用算法偏见的条款,该罪规定的行为模式之一就是“窃取或者以其他方法非法获取公民个人信息,情节严重”的行为。从上文得知,算法偏见出于自身功利性特征,会不经公民授权非法收集、处理、应用公民隐私,导致公民的隐私权受到严重的侵害,若不加以及时规制,公民的信息会在算法的深入下进一步被获取,因此应该由侵犯公民个人信息罪加以规制。但鉴于算法偏见的复杂性,需要刑法对此作出相应的修订和完善。虽然,我国当前尚处于弱人工智能时代,算法尚未具备人类的智慧而形成较强的学习能力,但作为最为见效和惩罚性手段,也应未雨绸缪,及时修订具有针对性的刑法条款,最终建构应对人工智能社会发展的法律规制体系。

  (二)技术伦理的规制

  算法系统的复杂性决定了其与技术、伦理等领域密不可分,为了保障人工智能健康发展,尽可能地消除算法偏见带来的影响,需要建立相应的伦理道德框架。国外对此颇有研究,其中在国际影响最广的是“阿西洛马人工智能原则”和IEEE组织倡议的伦理标准。具体而言,前者所倡议的伦理原则包括:安全性、失败的透明性、负责、与人类价值观保持一致、保护隐私、尊重自由、分享利益、共同繁荣、人类控制、非颠覆以及禁止人工智能装备竞赛等;后者提出了人权(确保它们不侵犯国际公认的人权)、福祉(在它们的设计和使用中优先考虑人类福祉的指标)、问责(确保它们的设计者和操作者负责任且可问责)、透明(确保它们以透明的方式运行)和慎用(将滥用的风险降到最低)这五项原则。而在我国,国家人工智能标准化总体组发布了有关技术伦理报告,结合算法偏见而言,算法的设计与应用要坚持以实现人类根本利益为终极目标,在算法相关的技术开发和应用两方面都要建立明确的责任体系,坚持权责一致原则。

  (三)算法偏见风险防控的行业举措

  由前述可知,算法偏见主要来自于设计人员的主观偏见、数据输入带来的偏见以及机器学习产生的偏见三个方面,而算法偏见所造成的侵害主要包括公民的平等权、隐私权以及数据安全,产生来源的多样性和存在的风险决定了我们对算法进行防控时不仅要从风险发生后出发,还要重视构建在人工智能技术发展中对算法偏见的常态性风险防范举措。

  1.建构行业道德伦理规范,约束算法设计者的行为

  算法系统充斥着人的偏见,是对社会偏见的映射。算法设计人员的主观意图会融入算法系统的设计研发过程,因此,为了消除算法偏见带来的危害,很重要的一步就是约束算法设计研发人员的行为,强化其道德自律,建立起行业道德伦理与规范。首先,应建立对算法研发人员统一培训制度,该制度旨在通过全国统一培训,达到使每位即将参与具体算法设计研发的工作人员对算法程序的基本概念、基本内容以及对数据的识别、性质等都有统一固定的认识,这避免了因区域性差异或主体意识偏差带来的错误,有效提高了算法设计的公平。其次,确保每位设计研发人员定期接受道德培训。科学技术推进社会发展,也能影响道德的演进方向,道德也影响科技的发展。应积极引导“技术道德”,使之融于算法设计者的内心。再者,提高设计人员的偏见识别能力。通过学习大量偏见案例,对基本的偏见行为能够区分,不仅自己设计时不该注入偏见,也要对同伴的偏见进行制止。最后,要强化政府和企业对算法设计研发人员的监督,不仅要定期抽检研发者的培训情况,还要对他们围绕设计规则与程序的陈述进行评估。约束算法设计人员的行为是消除算法偏见的必经之路,清晰认识道德与技术的关系,使算法的设计符合主流价值观。

  2.设立专门的算法监管机构和明确的技术标准

  技术层面上的不完善或者任意性都会使得算法系统存在一定的风险,面对算法应用带来的风险,我国尚未有专门的机构对算法进行监管,因此必须设立专门的监管机构。考虑到我国在计算机、互联网或者软件等领域有大量的行业协会,其中具有非常多的专业性人才,而算法是计算机领域的重要组成部分,故可以成立一个专门的行业自律组织,配备计算机技术人才,加之其他相关领域的专家,由相关行政机关负责指导,承担起算法监管的职责,更好地察觉算法中的偏见。另外,该行业自律组织得制定统一、相关的技术标准。技术标准的统一不仅可以提高后期对算法违规情况的审查准确度,还能有效制约算法设计人员的程序研发行为。现实中,算法完全中立虽难以实现,但可以致力于减少乃至消除一定的算法偏见。当然,制定统一的标准并不代表只有一套技术标准,技术标准具有不唯一性,某个领域内可以有多个标准。并且技术标准也具有发展性,统一技术标准的目的在于确保算法应用的公平性和合理性,并不是一成不变的,它可以根据需要随着技术的发展不断调整,使其达到最佳效用。

  3.建立算法备案审查制度

  为了防止有问题的算法投入市场应用而带来危害,有必要建立算法备案审查制度。算法备案审查制度是指算法系统的设计研发人员,在算法研发结束投入应用前应按照一定程序将算法有关材料向行业自律组织报送备案,接受备案的组织依法对其合理性等进行审查与处理的一种事前监督制度。需要指出的是,该制度的性质不是行政许可。建立该制度的意义主要是便于查明算法是否符合设立的技术标准、风险产生的源头以及确定需要承担责任的主体。备案主要程序为:设计者需要提交备案审查的内容主要有算法的基本信息、遵循的具体技术标准、应用范围以及风险预测和处理,行业自律组织在收到材料后及时进行初步的审查,剔除不符合统一技术标准和有明显风险可能的算法,退回缺少材料或者可以改进而减少风险的算法;算法设计研发人员对行业自律组织的处理有异议时,可以向其申诉一次,若对二次处理决定仍不服的话,可以向对应的指导行政机关申诉。经过行业自律组织初步审查不存在问题的算法都需要备案留册,研发人员取得备案文件后即可将算法投入应用。对于未经备案即投入应用或者投入应用的算法与备案登记信息不一致的,行业自律组织应当立即责令相关人员停止投入使用,并作出其他处罚决定(处罚权限根据相关行政法律规定授权行使)。

  4.提升算法透明度

  算法是在有限的步骤内将输入值转化为输出值,系统依靠自身内在逻辑处理问题,再据定义问题来证明输出值的合理性。算法缺乏透明性强化了算法偏见,并且使得用户无法去寻求救济。因此,为了提高算法的公平性,需要提升算法的透明度。然而在实践中,公开算法程序存在一定的障碍,算法研发者常以公开算法会侵犯其商业秘密为由拒绝公开。对此,笔者认为,可以通过有限度的公开来平衡提高透明度和保护商业秘密两者的关系,不必披露精确的代码或者公式。具体而言包括以下方面:一是向大众“生动”地公开技术要点。由于非计算机领域的用户无法深入了解算法自动化运行的原理,以动画演示等方式向社会公开算法能让大众直观感受算法系统运行过程。二是遵循数据处理透明原则。为了减少算法对用户的隐私侵害情况,算法设计人员应该向社会公开数据保密的方式以及安全保障措施,并且告知公众所收集的个人信息的用途和限度。三是贯彻可解释性原则。算法设计者一方面在主动公开的时候需要解释算法的应用场景、决策过程的原理、应用的相应风险等基本技术内容;另一方面要对公众所提出的疑问进行及时解答,从而使利益相关者的合法权益在遭受算法不当影响时,能够知晓如何寻求救济。需要注意的是,往往一些公司内部所应用的算法是外包给技术公司,这就应要求技术公司的研发人员将算法所有内容都通过合同规定“转让”给委托方,并由委托方完成上述向社会公开的任务。由此可见,提升算法透明度是使算法为人们所理解、所预测、所控制的关键一步,以算法透明抵御算法“黑箱”,纠正算法运行过程中的不合理环节,保障算法运行中的科学和公正。

  人类已进入了以大数据为主导的算法社会,为了避免层出不穷的算法偏见带来的社会风险,算法偏见的治理也在不断受到重视。据报道,于2021年9月26日召开的“2021年世界互联网大会乌镇峰会”设立的论坛中,算法问题的治理得到了高度重视。会议专设了“网络数据治理论坛”“数据与算法论坛”“网络安全技术发展和国际合作论坛”以及“互联网企业社会责任论坛”等直接和间接与算法治理相关联的研讨交流论坛。可见,在保障互联网社会及人工智能朝着更强的形态发展的前提下,算法偏见的社会治理已经开始了探求解决之征程。随着人们的不断探索和实践,算法规训的社会治理将会不断充实完善现代社会治理体系。

  

相关热词搜索:人工智能

上一篇:AI安全盘点|10个正在上演的魔幻现实
下一篇:2021年度全球十大人工智能治理事件及趋势前瞻

本站内容除特别声明的原创文章之外,转载内容只为传递更多信息,并不代表本网站赞同其观点。转载的所有的文章、图片、音/视频文件等资料的版权归版权所有权人所有。本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如涉及作品内容、版权和其它问题,请及时通过电子邮件或电话通知我们,以便迅速采取适当措施,避免给双方造成不必要的经济损失。联系电话:010-82306116;邮箱:aet@chinaaet.com。
分享到: 收藏