人工智能与中医信息技术导论(全国中医药行业高等教育“十四五”创新教材)
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

二、人工智能伦理探讨

(一)人工智能伦理

伦理(ethic)一词,来源于伦理学(ethics),伦理学作为西方哲学分支,亦称道德哲学,是对于道德的哲学研究。英语单词“ethics”源自古希腊语“ēthikós(ἠθικός)”,意思是“与一个人的性格有关”,这个字的根词为“êthos(ἦθoς)”,意思是“性格,道德本性”。古希腊哲学家亚里士多德最先赋予其伦理与德行的含义,并著有西方最早的伦理学专著《尼各马可伦理学》。

在英文语境中,“伦理”一词通常与“道德”互换使用,有时更狭义地指特定传统、群体或个人的道德原则。

1950年,美国科幻小说家阿西莫夫第一次提出著名的《机器人学三大法则》。彼时人工智能一词还未成为正式术语。但人类的想象力已经超越时代,先一步思考技术发展导致的伦理问题,即所谓“机器的道德问题”。

1967年,哲学家菲利帕·福特(Philippa Foot)提出了著名的电车难题:一辆失控的有轨电车驶向一个岔路口,假如电车沿着原轨道方向继续行驶,将撞死五名无辜的路人,而电车若转向另一条岔道,则会撞死一名工人。如果你是电车司机,会如何选择?假如正在驾驶这辆电车的是人工智能,又该如何选择?如果人工智能识别出在原轨道上的五位是铁路工人,而岔道上是一名孩童,那么系统是否应当把这个信息作为决策因素?随着人工智能的日益发展,其遇到的伦理困境也将越来越复杂。

鉴于科技发展带来的强大变革力量及其对社会各领域的深远影响,将伦理思想用于应对不断涌现的新技术所产生的道德风险并防止技术滥用——作为一门交叉学科,科技伦理学便应运而生了。而人工智能伦理作为科技伦理的分支,是人工智能相关活动的一系列道德价值观及社会规范的统称,随着人工智能逐步成为人类科技创新的源动力,其内在逻辑将直接体现人类的价值观和道德观。因此,人工智能伦理的发展方向便是探索如何以公允的价值判断来指导人工智能技术研发和应用中的行为,使人工智能的发展与人类的价值观统一。

2018年10月31日,习近平总书记在中共中央政治局集体学习会议上强调:“要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。”2021年9月25日,科技部发布了《新一代人工智能伦理规范》(以下简称《伦理规范》),旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。《伦理规范》提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养6项基本伦理要求。

(二)人工智能的伦理挑战

人工智能的成功是人类文明史上最重大的事件,但它也可能是人类文明的终结者。

——霍金

人工智能技术不断促进现代社会的发展,它们对人类的日常生活产生了巨大的影响——从提高生产力到解决气候变化、疾病和冲突等一系列棘手的全球问题。但人工智能在赋能各行各业的同时,也带来了数据安全与隐私保护、算法歧视、公平、责任界定等各种问题和挑战。

1.数据安全与隐私保护 隐私保护在大数据时代是一个无法回避的问题。20世纪90年代中期,美国马萨诸塞州集团保险委员会(GIC)公开了州雇员个人就诊的数据,以协助重要研究。委员会向员工保证,他们的数据已被“匿名化”,并删除了所有标识符,例如姓名、地址和社会安全号码。当时还是麻省理工学院研究生的Latanya Sweeney并不认可这份数据的隐私安全。这份发布的医疗数据虽然删除了所有的敏感信息,但仍然保留了三个关键字段:性别、出生日期和邮编。她通过一份公开的马萨诸塞州投票人名单,成功破解了这份数据,并将马萨诸塞州州长的医疗记录送到他的办公室……该事件成为美国HIPAA法案颁布的推动因素之一。如何做好医疗数据的隐私保护与共享,在人工智能的时代,是无法避免的问题和挑战。

美国网飞公司(Netflix)曾举办一个推荐系统算法竞赛,发布了一些“经过匿名化处理的”用户影评数据供参赛者测试,仅保留了每个用户对电影的评分和评分的时间戳。然而,美国德州大学两名研究员通过算法将公开数据与匿名数据对比,成功找到上亿条匿名数据的用户身份。为此,2009年Netflix遭到了4位用户的起诉,也不得不取消了该竞赛。

人脸识别技术的应用同样也会带来数据泄露和隐私侵犯的风险,由于我国尚未出台相应的法律法规,许多使用人脸识别技术的应用或者设备都没有提供隐私保护方案或者协议,公众也无法在充分知情同意的前提下使用。而数据泄露的风险进一步加剧了安全隐患。人工智能对生活方式的整体变革,使得个人很难对抗隐私被全面暴露的风险。智能手机、智能穿戴设备、智能家居、智能汽车等智能系统无时不在收集用户的生活习惯、消费偏好、行程轨迹、身体状态等信息。通过综合收集到的信息,各类平台可以更精确地预测用户对价格的敏感度及对内容的喜好程度,并针对消费者个体进行定价和营销,而被收集信息的人们很可能对此毫不知情。只要人们上网或是使用智能手机,服务商或设备商就能获取用户的个人数据。这些数据往往经过多重交易及多方渠道的介入,个人数据的权利边界愈加模糊。因此,人工智能技术是否始终恪守“个人数据最小化原则”,是否采取加密、匿名化等措施保护隐私等,都是判断其是否符合伦理的重要依据。

2.算法的伦理困境 算法的伦理困境主要来自算法的自主性、应用风险和归责困难三个方面。目前,机器学习算法已经可以通过大量的数据和训练进行自主学习和决策,这种自主性导致了最终难以解释输入数据与输出结果之间的因果关联,即过程的不透明性带来了结果的不确定性。这样的算法对于用户来说好比一个黑箱——只看到算法得出的结果,却无法理解决策的过程,当然也就难以预测算法得出的结果。因此,算法的自主性会带来进一步的应用风险。美国某公司开发了一套算法筛选简历系统,帮助招聘人员更高效地筛选简历。结果显示该算法对男性应聘者的分数普遍高于女性,由于系统存在明显的“重男轻女”,该公司最终不得不停止该算法的使用,这就是所谓的“算法歧视”或“算法偏见”。算法歧视问题可能给用户和企业带来不利影响。如果算法装载在具有自动驾驶系统的汽车上,在发生车祸时,如何界定自动驾驶车祸事故的法律责任就成为首要的法律和伦理挑战。

3.人工智能对社会关系的影响 人工智能给社会带来巨大变革及生产力的提升,也不可避免地带来失业、财产损失、秩序破坏、公正受损等社会难题。

(1)对失业的影响 人工智能的应用可能对就业产生影响,进而引发“大多数利益受损”和“极少数权益被剥夺”,是社会风险的重要来源。人工智能可能导致大规模现有岗位“被自动化”问题,若机器替代人工成为普遍趋势,则绝大多数民众将不可避免地面临待岗失业和重新择业的境遇,而极少数弱势群体或将面临永久性失业。多项研究显示,超过一半的现有工作岗位最终将完全被自动化和机器人替代,预示着人工智能的充分应用将导致民众利益受损的连锁反应。人工智能用于关乎公共利益或涉及公共决策的范畴时,可能出现对于公共利益的侵害行为,进而引发社会风险。

(2)算法推荐造成的信息茧房 过去60年来,人类社会的数据增长是爆炸式的。智能算法分发的根本动因是应对“超载”危机,这种“信息超载”的状况,本质上是为降低信息消费者的决策成本和信息生产者的送达成本,实现供需适配,信息过滤机制就变得特别重要。但算法往往被批评者视为“信息茧房”的制造者。

(3)算法推荐影响美国选举 社交媒体采用人工智能算法自动生成新闻流。Facebook的一份内部报告发现,社交媒体平台的算法,即用户通过该平台看到内容时所遵循的规则,使位于东欧的虚假宣传活动能够在2020年总统大选前夕触及近一半的美国人。这类广告推送影响了最终的选举结果。

4.数据来源 牛津大学的菲利普·霍华德教授说:“我认为,由于公共领域的大量错误信息,去年有几次民主运动脱离了轨道——英国脱欧及特朗普的选举结果。”这些并不能完全归咎于算法的自动推送,人们阅读新闻时缺乏批判性思维也是重要原因之一。但造成错误信息的最直接原因是Facebook等社交媒体向大量用户提供垃圾新闻。”

(三)人工智能伦理在中医药领域的指导作用

随着人工智能技术在生命科学领域的推广应用,中医药也在这股潮流中迎来了新的发展机遇。我们可以看到,人工智能的伦理与中医医学伦理,作为伦理学的不同子领域,二者的发展需求和原则是共通的,同样都为了增进人类福祉,也都强调善良与不作恶的原则。目前,人工智能技术开始应用于中医药领域,而对人工智能伦理的建设与探索,也将依旧发挥其价值。