人工智能领域的技术发展已经改变了我们的生活方式同时也影响人们基本权利,如人工智能的算法应用于决策时应体现平等,避免可能存在的歧视。欧盟委员会2017年发布《大数据相关的基本权利》报告指出禁止歧视是大数据涉及的重要基本权利[6]。
歧视,一般是指由于个人属于的性别、种族、肤色、语言、宗教、政治见解、少数民族等特殊群体,或属于社会公认的弱势群体,而受到某些行为、做法或政策对其造成的相对不利的影响[7]。歧视产生原因分为直接歧视(即基于与群体相关的敏感性歧视少数群体或弱势群体的成员资格,如种族、性别或性取向等)和间接歧视(并非有意但客观上造成了歧视,如无意决策偏倚、数字鸿沟等)。
(一)意外数据误差
误差的来源可以分为两类,一类是随机误差;另一类是系统误差。随机误差是由抽样误差所引起的,其大小可以用统计学方法进行估计,但没有方向性;系统误差即偏倚,是指研究结果系统的偏离了真实情况。偏倚一般分为三类,即选择偏倚、信息偏倚、混杂偏倚。
鉴于算法通常非常复杂而且算法作为商业秘密缺乏透明度难以被公开探讨纠正误差,因此需要更多地关注算法,“在数据挖掘方面产生歧视是更紧迫的问题,因为它可能更常见,更容易被忽视”。[8]
(二)数字鸿沟
数字鸿沟(digital divide),指能够轻松访问基于互联网技术的信息的个人与不能访问基于互联网技术的信息的个人之间的鸿沟。数字鸿沟存在于城市居民和偏远地区的居民间,受教育人群和未受教育人群之间等。
2017年一项调查显示,中国智能手机普及率为68%,在全球处于中游水平[9]。我国12306网站/APP购买火车/高铁车票非常方便,但是我国约三分之一的居民没有使用智能手机,而这部分都是老年人、相对经济困难的弱势群体,随着12306网站/APP流行,遍布各地的火车票销售网点几乎都消失了,没有智能手机或不能上网的该部分群体相对受到不公平对待。
(三)歧视形式
英美国家存在因为种族、宗教信仰、性别、性取向等被社会边缘化的群体,其在社会活动中被边缘化无法参加相应社区组织的活动而被歧视。我国就业性别歧视、地域歧视、经济歧视、健康预测歧视等时常被媒体关注。
(1)性别歧视:如2019年2月人力资源和社会保障部、教育部等9部门印发《关于进一步规范招聘行为促进妇女就业的通知》[10],解决招聘环节中就业性别歧视。
(2)价格歧视与欺诈:互联网电商根据用户的历史行为大量数据分析出用户的画像,了解每个消费者的购买意愿和能力,而消费者之间彼此隔绝,在购买前无从得知或很难得知标准定价(除非特意去找另一个手机比价),而客户终端调整价格成本极低,因而供应商能够针对每个人单独定价,价格歧视“大数据杀熟”[11]成为可能。真正让消费者无法接受的是利用忠诚用户的路径依赖和信息不对称实施欺骗,违背商业诚信原则。
(3)健康预测的歧视:安吉丽娜·朱莉在2013年进行双侧乳腺预防性切除,2015年她又宣布已经完成双侧卵巢输卵管预防性切除。困扰着朱莉的是遗传性乳腺/卵巢癌综合征,她携带BRCA1突变基因,而该基因突变可以增加乳腺癌和卵巢癌的发生风险,朱莉的母亲和姨妈都死于乳腺癌。健康预测或许是今后歧视的重要来源。(www.zuozong.com)
以应该进行BRCA检测的人群为例,根据美国《遗传/家族高风险评估:乳腺癌和卵巢癌指南(2018年)》[12]关于BRCA1/2基因突变的遗传预测有几十种情形,相关疾病存在家族遗传性高发特征。人工智能/大数据根据相关资料就能对特定主体进行健康预测,并针对性采取歧视措施。随着健康大数据的发展,健康预测歧视将会不断涌现。
(四)对弱势群体/特殊群体的过度关注与歧视
(1)丹麦包皮环切登记案[13]:2013年末丹麦卫生行政部门要求医生报告已发生的因宗教原因进行的包皮环切术和该男孩的国家保障号(CPR),旨在收集所有男性儿童宗教原因进行的包皮环切术,以评价手术并发症(如性功能障碍)。由于CPR号码关联健康、家庭、移民状态、教育、就业等各种信息,可能泄露个人隐私,2016年12月丹麦卫生部发布规定要求医生通过国家登记系统报告所有男性的包皮环切术。
本案研究宗教原因进行包皮环切术的医学并发症,医学专业角度通常认为没有医学指征表明包皮环切手术的手术并发症可能损害孩子健康。
(2)画像与知情:卫生行政部门要求医生报告已发生所有的因宗教原因进行的包皮环切术和该男孩的国家保障号,由于国家保障号关联男孩姓名、疾病诊疗信息(包括并发症和性功能)、家庭、移民状态、教育、就业等各种信息,实质是个人画像,因此必须事先自愿知情同意。
(3)对弱势群体过度关注:包皮环切手术登记本身可能会给宗教群体/个人带来社会压力,而且担心宗教信仰可能会对他未来的社会权利和机会产生影响,甚至群体污名化。在大数据人工智能领域需要特别关注存在当事人/群体的社会评价降低的污名化的问题(stigmatization)。包皮环切术登记的穆斯林男孩将成为数据主体,这可能会将穆斯林贴上异常的标签。很难预测公众对于包皮环切术的讨论或建立包皮环切术登记的具体行为是否已经或将导致穆斯林男孩公共生活中各种形式的污名化/歧视。对弱势群体适当保护是伦理的基本原则,也是大数据社会责任的具体体现。但是对于弱势群体和特殊群体过度关注,可能产生不良效果。挑出一种少数民族文化做法来监测和研究相关风险并将其医学化,可能会导致割礼作为宗教习俗被医学化,并可能损害这些活动的宗教意义和价值。
(五)歧视避免
1.建立大数据/人工智能的伦理委员会
预防和避免算法/人工智能可能存在的歧视,应当借鉴医学研究伦理委员会伦理审查的模式,由专业人士审查大数据算法/人工智能的科学性和伦理性。
大数据/人工智能方案涉及统计学、数学、计算机、伦理、法律等领域专业性很强,非专业人士很难了解、判断其中不符合伦理法律原则的缺陷。因此需要数学、统计学、伦理、法律等专业人士以及社区人员组成的伦理委员会通过伦理审查来判断其中是否存在不符合伦理、法律原则的缺陷,如果存在就及时修正完善。伦理审查通过后发放伦理审查批件作为算法/人工智能符合伦理要求的证明。
2.算法/人工智能透明与保密
用于对人们的生活作出决策的自动化工具(算法/人工智能),为了避免侵犯数据主体的基本权利,必须透明,包括程序和代码的伦理委员会的伦理审查,算法和人工智能上市后的监察。完全透明是不可能的,有的涉及知识产权或国家安全问题。由于算法/人工智能程序通常作为商业秘密而非发明专利被予以权利保护,进行伦理审查和监察的人员应当签署保密协议,违反保密义务应当承担泄密责任。应用的算法/人工智能获得伦理批准后,应当在某个公开网站登记公示,大众如需要了解某个算法/人工智能是否符合伦理,可以在该网站查询。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。