刘哲:中国机器人的道德标准是什么?“非人类中心主义”的视角
中国机器人伦理标准前瞻委员会工作组组长、北京大学哲学系副主任刘哲
2019年末,《中国机器人伦理标准化展望(2019版)》发布,继英国、美国、欧盟之后,我国机器人伦理标准体系初具雏形,为人类应对全球机器人伦理风险提供了“中国方案”。此次由哲学主导的“中国优化共生设计计划”(COSDP)为世界该领域探索出了哪些新视角?在可预见的未来,中国的机器人伦理标准化工作又将如何推进?2019年最后一天,文汇报记者李念、刘梦慈博士专访了《国家机器人伦理标准化白皮书》项目工作组组长、北京大学哲学系副主任刘哲,以对中国新技术发展和全球人类未来的思考,迎接2020年新的开始。
这是在全球54部机器人伦理文献中唯一一部以哲学为主导,制定机器人伦理标准的文献。
文汇报:2017年5月,我国首届机器人伦理标准研讨会在清华大学召开;同年7月,机器人伦理标准化成为“WRC2017世界机器人大会标准化专场”的重要议题。2018年,北京大学哲学系牵头编撰了《中国机器人伦理标准化展望(2019)》(以下简称《展望》),这意味着哲学等人文学科不仅在理论上探索人工智能等新兴科学技术,还要对其产业发展产生现实而具体的影响。作为“中国机器人伦理标准化展望委员会”工作组组长、北京大学哲学系副主任,哲学引领这一跨学科研究的意义何在?
刘哲:这是一个非常有趣的问题。不难理解为什么这样一个研究团队是由哲学家主导的。一方面,随着人工智能和机器人的发展,有相当多的伦理问题不再局限于人类社会,而扩展到动物、环境等领域。这种伦理考量所涉及的基本概念、基本理论会遇到相当多的挑战。从这个意义上讲,哲学的反思自然就凸显出来了。另一方面,这也和中国的文化传统有关,在中国,人们想到伦理,往往首先联想到哲学。尽管如此,我们的团队不仅由哲学家组成,还有人工智能、计算机、机器人等领域的专家。在顾问委员会中,也有不少来自产业界和政府部门的成员,还有外国专家。这确实是一支非常独特的团队。据统计,到目前为止,人工智能和机器人领域有关伦理的文献约有54篇,其中包括《前瞻》。 有些是伦理指南,有些是伦理白皮书,有些是伦理宣言,但我们的伦理体系可能是唯一一个以哲学为主导的伦理体系。与其他53份文件相比,这次伦理规范工作在面对具体问题和措施的同时,有更系统的伦理反思,也会探讨一些其他文件不太可能触及的理论问题。我们也对共性问题提出了不同的理论思考。
《中国机器人伦理标准化展望(2019)》,主编:北京大学、全国机器人标准化总体组,北京大学出版社,2019年11月出版,定价:50元
跨学科不是把两门学科放在一起,而是用开放的思维去看待新学科、新问题。
文汇报:据您了解,全国各高校哲学系开展这种交叉学科工作的情况如何?经过这段时间的合作,您认为开展这种工作需要人文学科学者具备什么样的知识储备?
刘哲:科学哲学、科学技术哲学、技术哲学一直都是我国高校开设的哲学专业之一。近年来,技术哲学的关注点转向前沿科技,这与人工智能包括智能机器人的快速发展,以及其在生产生活中应用所引发的问题息息相关。我看到不同的学者对此进行探讨,从不同的理论传统出发,其中有些学者关注的东西比前瞻更远。当然,也有一些声音对这一领域提出质疑。
对于人文学者来说,跨学科研究并不一定需要丰富的知识背景,但至少需要研究者有非常开放的心态和对理论探索的好奇心,而不是墨守成规。19世纪下半叶以来,学科逐渐分化,越来越专业化,似乎文理科各干各的,互不相干。因此,很多人以为跨学科就是从理工科中抽出一门学科,从人文社会科学中抽出一门学科,把两派人放在一起。这种理解是不恰当的。跨学科的真正含义是,不同学科的学者通过对话和辩论,看到一些新的问题,而这些问题可能不属于历史上任何一个学科。真正的跨学科研究,恰恰是为我们未来新兴学科的出现和发展提供最初的问题和探索。
我们正在与世界各地的相关大学和研究机构合作,创造一个理性讨论的全球空间。
文汇报:欧美国家较早开始人文学科与新兴技术交叉学科建设。例如2005年欧洲机器人研究网络就开始专门资助科研人员开展机器人伦理研究;英国西英格兰大学开设了包括人文学科在内的机器人系,并于2016年发布了第一部机器人伦理标准。据您了解,目前我国此类学科的建设,从中西方哲学界在这些领域的话语权来看,是更多的是竞争性的还是合作性的?
刘哲:在交叉学科研究方面,像人工智能、机器人、生物技术、材料、环境科学等在欧美、日本起步较早,科技研发也非常先进。从机构设置来看,在我国,至少在北大的交叉学科研究领域,基本与国际知名大学同步。比如,2018年底,北大哲学系相继成立了两个交叉学科研究中心:北大哲学与人类未来研究中心、北大伯格鲁恩研究中心。
目前国际上该领域的学者强调合作,这是因为跨学科研究面临的新问题不是针对某个国家、地区或民族的,而是全人类面临的新挑战。近年来,北京大学与剑桥大学、耶鲁大学、牛津大学、东京大学等全球多所相关领域的高校和研究机构开展合作,期待形成新的理性讨论空间,为决策者提供更加坚实的政策制定依据。当技术进一步发展,渗透到人类生产生活领域时,我们能够有更好的理论视角去理解和应对风险与挑战。
智能设备可以看作是“自主的智能实体”,而对自我意识和机器人伦理的研究是
文汇报:您之前从事过当代德国哲学和法国现象学的研究,2018年您担任第24届世界哲学大会中国组委会执行秘书长,同时开始主持《国家机器人伦理标准化白皮书项目》。是什么契机让您对哲学与技术(特别是机器人伦理)的跨学科研究产生了兴趣?跨学科研究是一个挑战。您在与国家机器人总体组合作开展这项工作时,有没有遇到什么困难?
刘哲:我一直对前沿科技很感兴趣,也围绕生物技术做了大量的阅读准备。另外,我长期以来的主要研究领域是自我意识与主体性理论。智能设备其实可以看作是具有一定自主性的智能体。因此,从事机器人伦理研究对我来说是一种拓展,而不是另起炉灶。但毕竟一开始这个领域对于我和项目组成员来说都是初步接触,所以需要阅读大量不同语言的国际文献,需要对其他国际和机构组织提出的人工智能与机器人伦理体系有深入的理解,并在此基础上寻求国际共识。这是一项复杂的任务。另外,2018年北京大学主办了第24届世界哲学大会,我和项目组很多成员都忙于组织会议。但让我印象深刻和感动的是,大家在高速的工作中,仍然挤出时间投入到《机器人伦理标准白皮书》的研究项目中。 2018年春节大家根本就没有休息,大家觉得这个调研很重要,很有意义。
刘哲在2018年《中国机器人伦理标准化白皮书》评审会上作了题为《迈向最优共生设计的机器人》的报告,提出了中国机器人伦理标准化体系框架——中国最优共生设计方案
目前只有中国从“非人类中心主义”角度探索全球机器人伦理标准
文汇报:2019年11月底,《展望》由北京大学出版社出版发行。书中提供了一套针对中国机器人的伦理标准——《中国优化共生设计方案》(COSDP)。与前些年BSI、IEEE、欧盟委员会三大机构发布的机器人相关伦理文件相比,我国的这套方案有哪些相同点和不同点?我国这套机器人伦理标准对推动世界机器人产业发展有何意义?
刘哲:在机器人伦理研究中,中国与世界面临共同的问题。因此,机器人伦理标准化体系是面向全人类的。这需要加深各国不同伦理标准之间的相互理解,寻求能够理性捍卫的国际共识。至于我国的特殊性,任何一个有着悠久文化传统的国家或地区,不仅仅是中国,都会遇到传统伦理价值观与现代世界伦理价值观之间的紧张关系。因此,需要一套具有相当融合度的伦理模式,来缓解甚至融合传统伦理与现代伦理之间的紧张关系。
《中国优化共生设计方案》背后一个很重要的视角是“去人类中心主义”,而今天在欧美,人工智能研究普遍是站在“人类中心主义”的立场上,我们至今还未看到有哪个研究机构准确阐明其所谓“人类中心主义”路径的含义。但在伦理考量中,人类中心主义意味着伦理价值判断的对象范围仅限于人权和人的利益,而“去人类中心主义”则需要考虑人与人、人与自然的整体关系,以及人工智能产品包括智能机器人产品被纳入整体关系时应该具备的价值属性。从这个意义上来说,《中国优化共生设计方案》提供了一个非常独特的视角,这涉及到如何面对今天以及可预见的未来10-15年人工智能和机器人领域的技术发展可能带来的挑战。
2016年9月15日,在社会机器人与人工智能大会上,西英格兰大学机器人学教授艾伦·温菲尔德发布了全球第一份机器人伦理文献:《机器人与机器系统伦理设计与应用指南》。
机器人伦理标准如何落实仍未知数,伦理规范需进一步补充
文汇报:据悉,中国国家机器人标准化总体组2019年年会于当年12月底召开,此次会议期间,国家机器人标准化总体组在推动机器人伦理标准体系完善与实施方面有哪些计划?
刘哲:全国机器人标准化总组年会围绕机器人产学研合作总体工作展开。伦理标准是标准化工作中比较新的领域。目前,对于国家标准化局,包括全国机器人标准化总组,机器人伦理标准如何落地还是一个问号,理论模型和法律法规制定、政策制定之间如何形成有效的互动关系还不明确。另外,除了智能机器人,针对传统机器人的伦理规范也需要进一步补充。
会议期间,总体组长在科研与产业分析中提到,新兴机器人与人类的协作已经更加紧密,更加融入人们的生活,而不仅仅停留在传统工业机器人的范畴。一方面,技术的发展非常快,但另一方面,治理理念以及背后的哲学反思却远远落后于技术变革。不难看出,推动我国人工智能与机器人伦理标准的制定、完善与实施,还有大量的工作要做。
全国机器人标准化总体组2019年度工作会议12月26日召开,审议了《机器人分类》和《机器人可靠性第1部分:通用指南》两项机器人国家标准。
“以用户为中心”很危险,机器人道德标准旨在推动行业走向“人机和谐”
文汇报:当前,随着人工智能技术的快速进步,机器人的应用已经渗透到社会生活中,在工业、医疗、家庭服务、军事等领域发挥着重要作用。与此同时,机器人的应用也引发了新的担忧,比如机器人替代人类劳动力带来的失业等。在您看来,当前机器人的研发和应用存在哪些伦理风险?
刘哲:每种不同类型的机器人的伦理风险表现方式不同。我认为目前真正的伦理风险并不是公众能够直接看到的。比如工业机器人确实会让一些传统上分配给人的任务消失。但任务的消失并不意味着岗位的消失。一个岗位可以分为很多不同的任务,人应该从事最能体现自己独特价值的任务。在我看来,真正的伦理风险在于人们思考这些问题背后的伦理视角。如果仍然以人为本的视角看待机器人伦理,我认为这可能是最大的风险。
文汇报:有人认为,机器人产业技术进步很大程度上受市场和经济效益驱动,“对机器人制定伦理标准,是机器人技术创新的障碍”。您如何看待这种观点?
刘哲:人们之所以认为机器人产业是市场驱动的,是因为二战以来市场经济的发展带来了一个趋势:国家发展必须满足每一个个体的需求。但如果我们仅仅把技术创新看作是市场驱动、是人类物质利益驱动,那么这将带来风险和灾难。目前,纳米材料、生物技术、人工智能、机器人等新技术都表现出了自身发展的变革性特征,它们具有变革性、新兴性和颠覆性。因此,我认为以“以用户为中心”的模式推动新技术创新的发展思路并不妥当。
在过去几十年的技术哲学发展中,人们越来越达成共识,认为一切制造物都体现了设计者和制造者的价值偏好,因此技术产品并非如人们通常所认为的那样具有价值中性。市场经济驱动的单一发展模式势必导致技术创新与伦理价值约束的冲突。为机器人设定伦理标准,是为了引导人工智能和机器人技术在研发和设计之初就更好地体现人类、其他物种和环境的整体价值,这对技术创新不是阻碍,而是一种促进。
2019年12月,在日本国际机器人展览会(iREX)上,发那科展示了有效载荷为35公斤的协作机器人,这是目前世界上最大的协作机器人。
人类与机器之间的伦理关系是一种“共生关系”,设计师应该在最初的设计中就包含这种信念
文汇报:有学者提出,人类文明已经进入技术文明时代,自然人正在经历一个技术化的过程,技术已经不再受人类控制。比如,弗朗西斯·福山在《我们的后人类未来》一书中指出,生物技术将改变人性。您认为,我们该如何理解人类伦理与机器人伦理的关系?未来人类社会的伦理秩序是否会受到包括机器人在内的人工智能伦理秩序的影响和改变?
刘哲:当我们把人类与机器人纳入总体目标机制价值中,即考虑人类与机器人的伦理关系时,应该从整体的“人机关系”出发,而不是从人类与机器人各自分离、独立的价值属性出发,这样的问题很可能就不会出现。设计者在规划机器人伦理时的价值考量,从一开始就是建立在对特定人机关系的塑造之上的,而这样的伦理关系是一个共生系统。
此外,类似的想象或许来自于科幻电影。目前,社会公众和许多关注技术哲学领域的学者,往往从科幻电影中去思考人工智能和机器人所带来的各种伦理风险和挑战。在此提醒大家,这样做的风险非常大,往往让我们对即将来临的人工智能和机器人技术所带来的伦理风险和后果视而不见。而且,科幻电影背后的媒体叙事逻辑,也可能极大地缩小了我们看待新技术伦理风险的多重视角。我们仍需更加准确、深入地正视人工智能和机器人技术当前的发展现状,以及可预见的未来技术发展的前景,这才是真正可靠的伦理理论思考的前提和基础。
本站所有文章、数据、图片均来自互联网,一切版权均归源网站或源作者所有。
如果侵犯了你的权益请来信告知我们删除。邮箱:569294425@qq.com