能不能和机器人谈恋爱?《日本经济新闻》3月16日报道称,随着人工智能的不断进步,机器人与人类的界线已经变得模糊起来。如果机器人能够与人类互通心意,也许会出现机器人深入个人生活,威胁人类隐私的事态。人类与机器人的差距越来越小,我们正面临着新一轮的伦理问题。
“太可怜了!”“简直就是虐待。”2月下旬,YouTube上的一则机器人视频下面出现了众多网友表示同情的留言。
视频发布者是机器人研发公司美国波士顿动力(Boston Dynamics)。一台机器人抱着箱子正在双足直立行走,旁边一名男子用木棍击打机器人,打落其手中的箱子,被打倒后的机器人依然能够独立站起来。对于机器人技术的进步,人们纷纷称赞“了不起”,但也有不少评论谴责男子的行为。
波士顿动力公司并没有恶意。该视频只是为了测试机器人受阻后恢复动作的性能。但没想到引发了很大争议。波士顿动力公司在1年前发布的脚踹四足行走机器人的视频也有过同样的反响。
大概某些观众产生了将机器人当成真正生物的感觉。损坏机器人不会构成伤害罪。但与实际生物相近的机器人受到伤害时,很多人会觉得很可怜。机器人已开始深深地影响了人类的伦理观。
与机器人做爱?
“到2025年,与机器人做爱将成为很平常的事”。美国著名民间调查机构皮尤研究中心(Pew Research Center)在2014年发布的机器人产业预测中写入了如上内容。这已不再是科幻情节,而是对未来的先知先觉。
<电影机械姬>
2015年秋季,英国BBC和美国CNBC等媒体报道了一家美国企业制造出女性形象“性爱机器人”的消息。该公司负责人认为该产品可以帮助丧偶者解决生活烦恼。
《日经新闻》记者在网上搜索了一下。这台真人大小的“全球首款性爱机器人”目前正以6995美元的价格销售。据悉该机器人预设了“交际型”、“服从型”等多种性格模式。这家企业的实际经营状况和销售业绩尚不清楚。但该产品却在国际社会上引发讨论,反对之声不绝于耳。
“性爱机器人将进一步激发人类对身体的欲望”。凯瑟琳·理查德森(Kathleen Richardson)是英国德蒙福特大学(De Montfort University)的机器人伦理研究员,她在网上发出了警示性声明,正在向全世界募集赞同者。她指出,过度专注机器人将“损害人类之间的情感共鸣能力”。
因为封面成立的学会
人类与机器人之间关系的变化已引起了技术人员的注意。日本人工智能学会在2014年12月成立了“伦理委员会”。该学会期刊的某期封面上刊登了女性形象的清扫机器人,招致了“性别歧视”的指责,由此成立了伦理委员会。该学会意识到,有必要认真讨论机器人和社会伦理观的联系。日本机器人学会提出“实现和维持健康社会”的方针,要求机器人的研究不应脱离一般社会观念。
尽管追求仿真人的机器人研发潮流没有改变,但其实暗藏陷阱。
“个人隐私的收集和管理将成为焦点”。日本花水木律师事务所的机器人法律问题资深律师小林正启为机器人产业的风险敲响了警钟。作为代表性案例,小林正启提到了日本软银集团的人型机器人“Pepper”。
软银社长孙正义称这是一台“有爱心的机器人”,目标是普及到一家一台。Pepper可通过人工智能识别感情,不断提升交流能力。在这一过程中,机器人拍摄和录音的信息将上传到云服务器上记录加工。
备受争议的车站试验
小林正启说:“虽说算不上违法,但如果个人信息操作失误,就有可能变成问题。企业应当做好充分说明”。2014年发生在大阪的事例就成为了教训之一。
2014年4月,日本情报通信研究机构在曾计划在大阪车站附近实施一项试验。内容为利用约90个监控摄像头追踪人的移动路线,试验目的是检验通过面部识别技术掌握单个人行踪的效果。计划公布后,人们纷纷担心个人隐私受到侵犯,最后不得不对试验内容进行了大幅调整。
资料图
该案例只是利用街头的监控摄像头,但人型机器人与用户的关系更加亲密,因此也更容易获得家庭内部的信息。软银主张,“在处理个人信息时会事先就范围和目的进行说明,取得用户同意”。预定年内推出家用机器人“Kibiro”的日本人工智能技术研发公司UBIC表示,“我们会获取对话的历史记录,但我们可不想被用户抱怨,说‘根本不记得同意过这些内容’”。
暴力、性、侵犯隐私……。在机器人与人类之间横亘着难题,而仅靠现有法律已无法解决。已故科幻作家艾萨克·阿西莫夫(Isaac Asimov)曾提出了以“不得危害人类”为核心的“机器人三原则”。人类当前面临的问题更为复杂。
业内正在讨论设立由法律专家和机器人研究人员组成的“机器人法学会”,目前筹备会已发布了“人类至上”、“保守秘密”等“机器人新八大原则”草案。参与草案拟定的日本庆应大学教授新保史生表示,“制定机器人法律和伦理原则对于产业界同样重要”。
人类历史上有过多次跨越伦理问题后发展新技术的先例。而现在正是需要充分讨论“机器人伦理”的重要时期。
原文链接网易科技:人工智能已开始影响人类伦理
人工智能的持续进步和广泛应用带来的好处将是巨大的。但是,为了让AI真正有益于人类社会,我们也不能忽视AI背后的伦理问题。
第一个是算法歧视。可能人们会说,算法是一种数学表达,是很客观的,不像人类那样有各种偏见、情绪,容易受外部因素影响,怎么会产生歧视呢?之前的一些研究表明,法官在饿着肚子的时候,倾向于对犯罪人比较严厉,判刑也比较重,所以人们常说,正义取决于法官有没有吃早餐。算法也正在带来类似的歧视问题。比如,一些图像识别软件之前还将黑人错误地标记为“黑猩猩”或者“猿猴”。此外,2016年3月,微软公司在美国的Twitter上上线的聊天机器人Tay在与网民互动过程中,成为了一个集性别歧视、种族歧视等于一身的“不良少女”。随着算法决策越来越多,类似的歧视也会越来越多。而且,算法歧视会带来危害。一方面,如果将算法应用在犯罪评估、信用贷款、雇佣评估等关切人身利益的场合,一旦产生歧视,必然危害个人权益。另一方面,深度学习是一个典型的“黑箱”算法,连设计者可能都不知道算法如何决策,要在系统中发现有没有存在歧视和歧视根源,在技术上是比较困难的。
为什么算法并不客观,可能暗藏歧视?算法决策在很多时候其实就是一种预测,用过去的数据预测未来的趋势。算法模型和数据输入决定着预测的结果。因此,这两个要素也就成为算法歧视的主要来源。一方面,算法在本质上是“以数学方式或者计算机代码表达的意见”,包括其设计、目的、成功标准、数据使用等等都是设计者、开发者的主观选择,设计者和开发者可能将自己所怀抱的偏见嵌入算法系统。另一方面,数据的有效性、准确性,也会影响整个算法决策和预测的准确性。比如,数据是社会现实的反映,训练数据本身可能是歧视性的,用这样的数据训练出来的AI系统自然也会带上歧视的影子;再比如,数据可能是不正确、不完整或者过时的,带来所谓的“垃圾进,垃圾出”的现象;更进一步,如果一个AI系统依赖多数学习,自然不能兼容少数族裔的利益。此外,算法歧视可能是具有自我学习和适应能力的算法在交互过程中习得的,AI系统在与现实世界交互过程中,可能没法区别什么是歧视,什么不是歧视。
更进一步,算法倾向于将歧视固化或者放大,使歧视自我长存于整个算法里面。算法决策是在用过去预测未来,而过去的歧视可能会在算法中得到巩固并在未来得到加强,因为错误的输入形成的错误输出作为反馈,进一步加深了错误。最终,算法决策不仅仅会将过去的歧视做法代码化,而且会创造自己的现实,形成一个“自我实现的歧视性反馈循环”。包括预测性警务、犯罪风险评估、信用评估等都存在类似问题。归根到底,算法决策其实缺乏对未来的想象力,而人类社会的进步需要这样的想象力。
第二个是隐私忧虑。很多AI系统,包括深度学习,都是大数据学习,需要大量的数据来训练学习算法。数据已经成了AI时代的“新石油”。这带来新的隐私忧虑。一方面,如果在深度学习过程中使用大量的敏感数据,这些数据可能会在后续被披露出去,对个人的隐私会产生影响。所以国外的AI研究人员已经在提倡如何在深度学习过程中保护个人隐私。另一方面,考虑到各种服务之间大量交易数据,数据流动不断频繁,数据成为新的流通物,可能削弱个人对其个人数据的控制和管理。当然,现在已经有一些可以利用的工具来在AI时代加强隐私保护,诸如经规划的隐私、默认的隐私、个人数据管理工具、匿名化、假名化、差别化隐私、决策矩阵等等都是在不断发展和完善的一些标准,值得在深度学习和AI产品设计中提倡。
第三个是责任与安全。霍金、施密特等之前都警惕强人工智能或者超人工智能可能威胁人类生存。但在具体层面,AI安全包括行为安全和人类控制。从阿西莫夫提出的机器人三定律到2017年阿西洛马会议提出的23条人工智能原则,AI安全始终是人们关注的一个重点,美国、英国、欧盟等都在着力推进对自动驾驶汽车、智能机器人的安全监管。此外,安全往往与责任相伴。如果自动驾驶汽车、智能机器人造成人身、财产损害,谁来承担责任?如果按照现有的法律责任规则,因为系统是自主性很强的,它的开发者是难以预测的,包括黑箱的存在,很难解释事故的原因,未来可能会产生责任鸿沟
第四个是机器人权利,即如何界定AI的人道主义待遇。随着自主智能机器人越来越强大,那么它们在人类社会到底应该扮演什么样的角色呢?自主智能机器人到底在法律上是什么?自然人?法人?动物?物?我们可以虐待、折磨或者杀死机器人吗?欧盟已经在考虑要不要赋予智能机器人“电子人”的法律人格,具有权利义务并对其行为负责。这个问题未来值得更多探讨。此外,越来越多的教育类、护理类、服务类的机器人在看护孩子、老人和病人,这些交互会对人的行为产生什么样的影响,需要得到进一步研究。
构建算法治理的内外部约束机制
一是合伦理的AI设计,即要将人类社会的法律、道德等规范和价值嵌入AI系统。这主要是电气和电子工程师协会、英国等在提倡。可以分三步来实现。第一步是发现需要嵌入AI系统的规范和价值,存在道德过载和价值位阶的问题,即哪些价值优先,哪些价值在后。第二步是将所发现的规范和价值加入AI系统,需要方法论,有自上而下和自下而上两种路径。第三步是对已经嵌入AI系统的规范和价值进行评估,看其是否和人类社会的相一致。一方面是使用者评估,需要建立对AI的信任,比如当AI系统的行为超出预期时,要向用户解释为什么这么做。另一方面是主管部门、行业组织等第三方评估,需要界定价值一致性和相符性标准,以及AI可信赖标准。
但是需要解决两个困境。其一是伦理困境。比如,在来不及刹车的情况下,如果自动驾驶汽车往前开就会把三个闯红灯的人撞死,但如果转向就会碰到障碍物使车上的五个人死亡。此时,车辆应当如何选择?在面对类似电车困境的问题时,功利主义和绝对主义会给出不同的道德选择,这种冲突在人类社会都是没有解决的,在自动化的场景下也会遇到这样的问题
其二是价值对接的问题。现在的很多机器人都是单一目的的,扫地机器人就会一心一意地扫地,服务机器人就会一心一意给你去拿咖啡,诸如此类。但机器人的行为真的是我们人类想要的吗?这就产生了价值对接问题。就像Midas国王想要点石成金的技术,结果当他拥有这个法宝的时候,他碰到的所有东西包括食物都会变成金子,最后却被活活饿死。为什么呢?因为这个法宝并没有理解Midas国王的真正意图,那么机器人会不会给我们人类带来类似的情况呢?这个问题值得深思。所以有人提出来兼容人类的AI,包括三项原则,一是利他主义,即机器人的唯一目标是最大化人类价值的实现;二是不确定性,即机器人一开始不确定人类价值是什么;三是考虑人类,即人类行为提供了关于人类价值的信息,从而帮助机器人确定什么是人类所希望的价值。
二是在AI研发中贯彻伦理原则。一方面,针对AI研发活动,AI研发人员需要遵守一些基本的伦理准则,包括有益性、不作恶、包容性的设计、多样性、透明性,以及隐私的保护,等等。另一方面,需要建立AI伦理审查制度,伦理审查应当是跨学科的,多样性的,对AI技术和产品的伦理影响进行评估并提出建议。
三是对算法进行必要的监管,避免算法作恶。现在的算法确实是越来越复杂,包括决策的影响都是越来越重大,未来可能需要对算法进行监管。可能的监管措施包括标准制定,涉及分类、性能标准、设计标准、责任标准等等;透明性方面,包括算法自身的代码透明性,以及算法决策透明性,国外现在已经有OpenAI等一些人工智能开源运动。此外,还有审批制度,比如对于自动驾驶汽车、智能机器人等采用的算法,未来可能需要监管部门进行事先审批,如果没有经过审批就不能向市场推出。
四是针对算法决策和歧视,以及造成的人身财产损害,需要提供法律救济。对于算法决策,一方面需要确保透明性,如果用自动化的手段进行决策决定,则需要告知用户,用户有知情权,并且在必要时需要向用户提供一定的解释;另一方面需要提供申诉的机制。对于机器人造成的人身财产损害,一方面,无辜的受害人应该得到救助;另一方面,对于自动驾驶汽车、智能机器人等带来的责任挑战,严格责任、差别化责任、强制保险和赔偿基金、智能机器人法律人格等都是可以考虑的救济措施。
在今天这个人工智能快速发展,人类在诸如围棋、图像识别、语音识别等等领域开始落后于人工智能的时代,对人工智能进行伦理测试同样重要,包括道德代码、隐私、正义、有益性、安全、责任等等,都是十分重要的。现在的AI界更多是工程师在参与,缺乏哲学、伦理学、法学等其他社会学科的参与,未来这样跨学科的AI伦理测试需要加强研究。因为在某种意义上我们已经不是在制造一个被动的简单工具,而是在设计像人一样具有感知、认知、决策等能力的事物,你可以称其为“更复杂的工具”,但不可否认,我们需要确保这样的复杂工具进入人类社会以后和人类的价值规范及需求相一致。
作者:EastarL
链接:http://www.jianshu.com/p/1168305c31ac
來源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。