作者: 发布时间:2020-05-06 来源:《2019上海论坛访谈录》+收藏本文
刘哲:“国家机器人伦理标准化白皮书”项目工作组组长、北京大学哲学系副主任
访谈Part1|人工智能发展现状
人工智能从2010年开始进入一个“爆发”的阶段,人工智能无论在国内还是国外都是一个热点。您怎么看待公众对人工智能技术及其应用的反应?
刘哲:
人工智能的发展从上个世纪50年代以来就起起伏伏。其实每一个阶段都会有一次所谓的爆发,但是很快又因为各种各样的原因沉默下去。最近的这一次,人工智能的研究界内部一般会把2016年作为人工智能元年,随着几项新技术的广泛使用,比方说深度学习,比方说大数据,比方说机电一体化,一些重要的变化都在不断推动着这一轮人工智能领域的发展。
另外也有一些给大家带来颠覆性认知的公共性事件,比方说Alpha Go。以前在国际象棋的领域当中,DEEP BLUE 战胜人类以后,人们就始终有一个潜在的信念,认为在围棋这样高度复杂的棋类领域,无论如何,这些机器系统不可能战胜人类的智力,但事实上人工智能确实带来了一种颠覆,所以对于人们传统的信念,包括人和机器本身的智能能力的认知来说,它确确实实带来了一种新闻传播意义上的轰动效应。所以从公众的角度来说,公众往往不会对技术内部的内容做过多的关注,只是从社会的效果感觉到这种新技术的迫近,并且产生一种不安全感。这些对于人们来说,可能是这一次人工智能兴起背后影响公众的心理、认知,以及情绪的非常重要的因素。
就像您提到的那样,人工智能它在历史的发展中有一个极其复杂的过程,您觉得这一次所谓的“爆发”,意味着人工智能将慢慢加深对我们的影响,还是说它只是一个我们感知到的“爆发”,而以后必将出现一个技术的“沉默”?
刘哲:
其实从现在来说大家的看法其实是不太一样的。新一轮技术应用的潜力、它在我们的生活生产各个领域当中产生的技术性变革,包括对我们的生产生活平台的颠覆,从这些角度来说,有一些科学家抱着非常乐观的态度,认为起码我们还有二三十年的美好前景可以去追求;但是也有一些科学家会认为,其实我们今天的这些技术使用离真正理解“智能”这个概念,还有着相当大的距离,或者说我们今天的技术其实在很大程度上还是对于传统的数据加算法模式的进一步延伸,既没有真正地达到我们所说的“理解智能”,也没有开创一种新的技术模式,建立一个不同于人类智能的方案。
所以其实在这里面争议非常大的,同时也是让大家非常纠结的问题就是:什么是人工智能?我们如何来理解这种智能的含义?
对于智能的定义,无论是在科学界还是在哲学领域当中,大家都有着非常多不同的看法。这些看法也影响着人们对于今天人工智能领域本身的发展前景的认知。但是毫无疑问,无论是从我们自己的国家,还是从其他在人工智能领域十分重要的一些国家来看,大家都会把人工智能作为新的一种生产生活方式变革的一种平台性的技术。
那么从这个意义来说,它跟传统思考中的局部性改变是不太一样的。平台技术就意味着它其实可以拓展到我们人类生产生活的各个角落。所以从这个角度来说,如果它成功被推进,而且这种技术产品能够被应用、生产的话,那么它产生的推动效应和颠覆效果可能是前所未有的。
您刚才提到“人工智能作为平台的应用”,是一个比较中性的说法。如果它真的只是被推广到我们的生活中的基础设施,为什么人们会对他会抱有一种很深的危机感?
刘哲:
因为这个平台,它跟传统的工业平台,包括我们工业革命中蒸汽机,或者上世纪计算机信息技术的变化,有着非常大的差别:它颠覆了我们传统对于世界理解的基本框架,我们传统的所有概念都是依赖于“人作为自然界当中的顶端”而形成的。在这个意义下面,我们会思考我们自己作为物种的权益,我们也会在这个意义下面形成很多想法,比方说人工智能的社会影响。在法律和伦理规范的角度当中,很多的国家很多的研究都秉持着人类中心主义的路径。其实这个就是我们传统预设的扩大性反应。
在这个角度当中,我们会以人自身的行为方式和权益作为核心范式来去进行思考。即便有的时候我们觉得人类需要去保护环境,我们需要去保护物种多样性,但是保护背后的目的是说,我们不能把这些资源在我们这一代人当中耗尽,我们应该留给后代,这种论述背后依旧是“我们人类是物种中心”的观点。
但是人工智能发展的现状或者说至少愿景给大家带来的一个潜在想法是说,它真的是像我们人这样的生物物种一样,具有同样的甚至更优越的智能能力。当它跟我们交流的时候,它是在听懂我们吗,或者在理解我们吗?当它在机器人的这样一种有物理形体的设备当中去实现的时候,它真的是像人或者另外一个更高级的物种吗?所有的这些问题都给大家带来了一种不安全感。
另外,人对于具有运动能力的这些物体,天然就具有一种人格化的倾向。这也是一个非常有趣的现象。我自己的观察是在这一次人工智能技术的发展当中,人们从一开始提出来的问题就是哲学式的,这也是以往的技术革新当中比较少看见的。
就像所提到的这些问题,基本上都是跟哲学理解世界的最基础性的概念框架相关的。这也就意味着我们人类理解世界的原本的框架系统本身在发生松动,甚至可能面临着挑战。这也是为什么人工智能虽然是一个平台,但它跟传统的这些平台技术有着非常大区别的原因所在。因为它颠覆的是我们对于世界理解的整体性的概念认知和框架。
您认为公众对人工智能的恐慌背后会不会有一种媒体的影响?
刘哲:
首先说“危机”。其实危机的含义来自很多,我们思考危机的时候,并不必然非要把它思考成负面性。危机当中其实包含的是我们重建理解世界秩序的一种触发,这个可能是危机当中的非常重要的要素。但是在重建秩序的过程当中,我们又没有任何现成的,或者说唯一的回应当下的路径,这也是这次论坛的一个重要的主题。
第二点,其实在我们考虑现状的时候,媒体在这里面所扮演的作用的确还没有受到足够的关注,特别是在我们中文世界当中。在西方的研究里面有一定的关于传媒对于塑造公共对技术的态度的影响作用的部分,比方说今天大家比较熟悉的各种各样的好莱坞的影片。
好莱坞影片背后常常包含两种传媒的意识形态,一个传媒的意识形态可以把它称为Pinocchio Syndrome(“匹诺曹综合征”)。什么是Pinocchio Syndrome?匹诺曹本来是一个小木偶,历经磨难最后变成一个真孩子。大家就会想,我们的机器人或者人工智能的发展是不是也是这样?历经各种各样的坎坷,有一天它会变成一个真人,如果不是人这样的物种,至少是和人同样的有力量的物种。这是一类叙事的方式。另外一种叙事的方式,可以把它理解为slave revolution,就好像斯巴达起义一样。“robot”在上个世纪的剧本里面第一次被引入的时候,它原本的含义就是一个被奴役的劳动力。所以大家的想法会是,有一天当它们的力量越来越强大的时候,它们就会找主人的麻烦,会造反。
所以在西方的这种叙事当中,它造成的是公众对于这样的一些技术和产品的天然的、非常容易产生的恐慌情绪。但是在中国包括亚洲的日本,我们可以看到,人们的心态跟欧美是不太一样的,我们没有那么大的敌意。在日本尤其如此,比方说在我小的时候,日本有一个跟机器人有关的形象,我们叫铁臂阿童木,他塑造的一个机器人的形象,是一个积极的融入人类社会,能够友善地和我们相处的这样的形象。至少从亚洲社会整体来说,特别是日本,人们对于机器工业制品的接受度,还是要远远大于欧美社会的。
最后一点,中国在整个接受新技术、新领域的时候,我们的传媒扮演什么样的角色呢?中国是一个非常开放的国家,这些不同地区的传媒影片、小说,它们如何影响中国(对技术的认知)?到今天为止我们还没有足够的研究,所以很难给出一个明确的答案。也许大家在这种开放的讨论过程当中,会看到另外一个不同的共同体,以及在面对新技术的时候中国的不同以往的一种态度。这一方面的研究需要长期的追踪,另外它并不仅仅只局限在我们一些新闻的报道上面,还包含其他的方方面面。对我们的公众文化、新的传媒平台、新的传媒方式,都要做相当的研究。
电影《银翼杀手》里有一个情节是,机器人本身并不能分辨自己是机器人还是人类,所以人类会对任何类似人类的存在进行一系列的测验,确定他到底是机器人还是人类。未来的人工智能会发展到这个程度吗?
刘哲:
其实这个问题有一点点远,在进行我们国家机器人伦理标准的标准化工作的时候,我们在思考伦理框架的时候,可以看到公众甚至有的科学家愿意从影片的角度去思考。但是实际上我们还是要比较审慎和理智地去看待这个问题,问题的提出方式不应该依赖于科幻电影,而应该去依赖我们今天的技术进步,以及在可预期的10到15年的这种不远的将来。也就是说对于机器人,包括人工智能系统和我们人进行交互的时候,我们该如何关注他们展示出来的各种各样的performance。
在机器人这边,首先它是一个物理运动。比方说我们看到一个机器人面部的展示出来的一个向上的移动,当然大多数人会说,“看他笑了”,或者“他很happy”。但是注意,这些说“他很happy”、说“他笑了”,其实都是在把它等同于人的行为来看待。最近有很多朋友给我推送说美国一些科学家倡导成立“machine behavior”这样的一些新的领域,但实际上如果我们仔细思考这个问题的话,远没有这么简单。Machine behavior,如果没有语法错误的话,它至少要预设对于machine behavior概念的一些非常特别的理解。但是在机器人目前的状况当中,比如人工智能系统对于自然语言的识别过程、视觉图像处理的过程,我们是不是能够把它们称为“behavior”这件事情本身就非常可疑。所以在短期我们更应该去考虑机器人本身,包括人工智能系统本身物理性的运动。我们在这里面,无论是从工业设计还是其他,应该不断的要提醒人类:它不是人,它只是一个机器。
另外一个方面,有时只有当我们人对于机器有亲近感的时候,它需要去执行的任务和功能才能够得到顺利地执行。比方说智能系统当中,其中有一类是“陪护型机器人”,只有当它和人交流时,它的这种陪护功能才能够实现。比如说患有自闭症的儿童,由于他们拒绝跟人类交流,一个替代的方案是采取机器人或者人工智能系统来跟他们交流。但是与此同时,一旦它展示出这样的亲近感,这部分弱势群体对于设备就会形成一种单向的情感绑定,这对于人来说危害是非常大的,形成情感绑定的个体可能越来越不愿意跟人类社群交流而更愿意跟机器人生活在一起。比如自闭症儿童,这些儿童通过机器人陪护,虽然自然语言能力发育了,但是从情感上来说,他可能越来越不愿意和人类交流。这样问题就会变得非常的凸显:我们希望他完成语言的发育,我们的预期是他重新融入社会,但是现在的情况他反而是离社会越来越远。但如果机器人本身不形成和人之间的亲和力的话,往往它的功能也无法实现。
所以我们今天无论是在设计上,还是在对于人的各种各样心理机制、行为机制、社会机制的研究上,都要做更多的理解。我们也希望这样的一些研究,能够慢慢让整个领域从原初的设计开始,就能够被引导向一个对于整个社群、自然和世界有益的方向上去。
人工智能取代人类工作将会造成失业潮是很多人的担忧;行业中也有一种理想主义的、认为人工智能能够应用到任何行业的热情。您怎么看待人工智能对于就业和行业的影响?
刘哲:
这里面其实有好几个问题,首先是岗位调整。其实历史上这样的问题屡见不鲜,比方说当蒸汽机出现的时候,工业设备导致大机器的生产,会导致工人对于自身工作岗位削减的极大恐慌。但事实上这些机器生产的出现也带来了很多新的就业的机会,这是原来没有的。传统的很多岗位可能会被替代,比方说我们经常说的“3D”岗位,也就是比较脏的(dirty),比较枯燥的(dull),比较危险的(dangerous),这些岗位我们往往倾向于用机器人来替代。但是在这个过程当中,也有相当多的和机器人相关的工作产生。会有新的就业环境,只不过对于我们传统的劳动力市场来说,就业的人员本身需要重新教育。
所以问题并不首先展现在岗位本身的削减,而是岗位的调整。而岗位的调整就要求教育系统要发生相应的改变。如果我们不对今天的教育模式进行调整的话,那么未来就真的是“硬着陆”。这些削减的岗位会直接导致大量的失业,因为人们不具备重新就业的能力。所以重新接受教育是非常重要的。
第二点,从工业机器人的设计来说,上个世纪末期以来的这种所谓的协作性机器人“cobot”,这些设计有效地把人和机器人结合在一个整体的生产线上,所以并不必然机器人完完全全独立进行生产活动,人是参与其中的。这其中更应当思考的是在协作过程当中,人类劳动者本身的尊严和价值。思考“如何来设计一个协作性机器人本身以及它和人之间的交互关系”这一问题就变得非常的必要和及时。如果我们把一个生产线的生产方式,或者生产的强度模式建立在机器人的标准上面,而人在这个过程当中只是在替机器人打工,这对于人的尊严来说是一个极大的损伤。如何能够把人自身的相对于机器人来说的独特性,用能够展示人类尊严和人类价值的方式在这种协作性机器人设计当中展示出来就变得非常棘手。
第三个非常重要的问题是在这种协作过程当中,工厂的生产环境会导致人类和机器人之间的协作大大的增加。那么在全天的作业当中,人类和人类之间的交往会极大地减少,这会慢慢带来员工本身的心理问题。如何让这些员工不会慢慢疏离人类社群?如何规避类似的风险,其实是我们引入工业机器人、人工智能系统以后需要去关注的,它绝对不简简单单只是一个岗位数量的问题。
另外一个问题,其实也是我们在面对整个人工智能系统时的问题:它是不是真的像我们所预期的那样,能够进入所有的行业?虽然今天很多生成理论在不断告诉我们机器设备通过智能化的系统也可以产生一些创造性的活动,比方说机器人写书法,机器人创作音乐,机器人创作诗歌。就这些内容本身来看,未来发展的可能性有多少还是非常模糊的,我们还没有办法非常明确地判定它是否真的具有所谓的创造性。但是大家很热情,这个热情背后更多的是好奇,而好奇的背后也许是一种潜在的忧虑,因为人们担心如果当这些领域也被人工智能系统所替代的话,在这个星球当中人类还有没有自己独特的位置。
我觉得其实应该更多关注,假定技术真的可以去解决这类问题的话,我们要不要技术去往这个方向发展。并不是说技术可以做的事情,我们都允许它去发展,我们应该去引导技术的发展。行业从业者本身是有热情的,但大家可能缺乏一种整体的考量,或者说伦理的考量。
访谈Part2|人工智能发展的伦理考量
如果政策或者是其他的方面,伦理的,比如说一些规制跟不上的话,问题还是会出现。
刘哲:
实际上这里面其实政策只是其中的一部分,对于我们的人工智能和机器人来说,需要一个整体的业态或者一个生态。这种生态本身包含方方面面的内容是,不仅仅包含着政策制定者这一部分,也包含着司法法律、公众的传媒认知教育全方位的参与,因为在这样的一种平台性的技术当中,社会当中的每一个个体,每一个家庭,每一个类型的机构都是利益的相关方,需要一种对利益相关方整体性的关注和讨论。所以其实单独从任何一个利益出发去理解,甚至去约束,对于技术发展可能都成问题。
第二,任何一个国家单独去对它进行限制或者管理,也会是问题。因为在这个国家不行,可以跑到别的国家,而在今天的国际格局当中,它会促生出新的一轮的技术竞争。从整个生态的角度来说,这个生态一定是跨文化、跨国家、跨领域、跨界的。只有这样的生态系统,才具有能够引导形成新的技术发展的可能。
另外,这也是我们今天的公众,包括很多科学家,包括政府的一些政策制定的一种偏见,他们认为这些管理、政策制定,只是在给他们装一个紧箍咒。但事实上对于今天的技术发展,第一你无法装紧箍咒,因为技术发展太快,没有任何人可以预测明天会出现什么,这种紧箍咒一经提出很可能就已经过时了。其实今天的科技发展,特别是人工智能和机器人领域的这种发展,它要求我们形成新的伦理监管的思路和具有前瞻性的管理模式。伦理的设计要融入到我们的产品设计初期和技术研发初期,就像刚才我们提到的不是所有的领域我们都要任其发展,同样的技术可以往不同的方向发展,技术本身并没有被阻挡,但是它的发展方向在被引导。这就要求把几十年来大家非常习惯的“市场导向”,也就是追求经济利益的技术发展模式,转换成以人类价值作为驱动核心的“价值驱动”的发展模式。这种方向本身也是一种前瞻性的引导,而不是事后管理。
第三点也牵扯到伦理的治理和法律规制之间的差别。从法律的角度来说,法律具有明显的滞后性,特别是对于一些前沿科技的发展。我们没有办法判定科技发展的方向,一种法律的方式是调动我们既有的法律资源去对它进行监管,但是实际上在这个领域当中往往会捉襟见肘,而制定新的法律任何时候都太早,因为我们并不清楚明天的技术发展状态,等法律制定出来,可能又是一个不合适的法律法规。所以如何有效地利用其他多元的多途径形成治理体系,也是摆在今天的国际社会当中的,需要每一个国家、每一个社群去考虑的问题。至少在人类既有的治理经验的各种各样的注解当中,伦理治理就是一个不可替代的途径。
中国在伦理治理这方面与世界其他国家相比是否滞后?
刘哲:
我们其实也不滞后。比方说北京大学这边承担的《中国机器人伦理标准化前瞻2019》工作。这份工作在2017年底启动,在2018年5月获得验收。这是中文世界里面第一份和人工智能领域相关、主要是机器人相关的带有伦理标准化的系统性文件。这个文件用的前瞻的概念意味着首先要引起中国的政策制定者、公众、学者的广泛讨论,这能够为我们中国的标准化工作参与到国际社会提供前期的理论准备。第二,这个文件是中英双语的,所以从一开始它就是面向国际社会开放的。第三,在这个过程当中,我们一方面非常关注中国既有伦理思考当中丰富的伦理资源,与此同时我们也不忽略现代世界兴起以后带来的现代价值。我们希望能够形成既具有高度整合力,又具有动态调整性,朝向未来的、开放的价值导向。也希望能够通过这样的一种讨论,使得社会内部和国际都能够慢慢形成一种共识。最后一点,这是我跟他们,无论是欧盟,包括北美还是日本这些相关制定机构,接触的时候了解到的,现在绝大多数国家的这些伦理规范的制定,他们往往比较明确的是人类中心的立场,这是我们的前瞻布局要刻意规避的。我们回避了所谓的“人类中心主义”的路径而采取我们称之为“世界中心”的路径。
在这个过程当中,其他国家一般依赖于某一个国家和地区的政策文件、法规文件,以及国际人权组织的政治公约,以它们作为伦理导则背后的合法性基础,这是一个比较普遍采用措施。而我们可能是绝无仅有的以哲学主导的路径。这和以政府文件、国际公约组织文件主导的根本性差别在于,当我们辩护这些伦理导则和伦理规范背后的合法性依据的时候,它没有依靠政治权力,它依靠的是人类理性。对于前沿的科技发展,我们人类既有的所有政治、伦理框架,毕竟都是基于人类社会内部特定历史发展阶段衍生出来的结果。这些前沿科技具有颠覆性作用,标准制定只有依赖人类理性基础,它才可能是一个朝向明天和朝向多元文化的伦理方案。这是我们中国的方案,非常不一样。我想未来它出版以后,可能会引发国内和国际的很多讨论。我们也想找合适的时间能够跟国际上的不同导则、伦理规范的制定团队进行更加密切的讨论,合作共同来推动整体的发展进步。
不同的国家和文化背景下有不同的伦理标准、判断取向,不同的文化之间会有不同的差异。标准制定过程中要不要去考虑我们国家以外的其他的文化的一些伦理标准?
刘哲:
必须要考虑,所以这就是为什么我们说需要去寻求的伦理标准化的框架,它必须具有足够的开放性和动态性特征。这种多元性既包含着对于既有的人类文明、人类社群生活模式的差别的敏感,还有对于不同的文化和文明体本身自己独特的价值基础和多元化特征的敏感。
但另外一方面它又要具有一定的整合力,不然的话无法作为一个理性的标准来实现。所以这个框架本身的开放性,它朝向未来的动态特征,以及对于文化多元价值的的整合力,是来考量每一个标准化体系本身是否成功的标尺,以及考量它是否能够具有全球共识的非常重要的依据。从这个角度来说,尽可能地寻求最大化的、可被理性辩护的全球共识,就变成了任何一个要想在这个领域进行伦理规范和治理考量的重点。
访谈Part3|人工智能时代需要的相应举措
您觉得社会公众目前对人工智能的认识在哪些方面需要学界的推广、普及,来推动对于人工智能的正确认识?
刘哲:
我觉得现在当务之急不是直接向公众普及,而是我们的学科本身首先要发展。因为只有当有内容向公众推广,而且不是误导,它才是一种有益的普及。否则的话,这就只是在把我们自己非常有限的阅读从国外转译到国内,这对于我们推动这个问题的深入研究虽然有一定介绍性的帮助。但是这些国外的内容对于在中国语境当中的一些独特问题,它的解释力是不够的。
第二,其实从纯学术角度去考虑,普及难度也是非常大的,因为学者们术业有专攻,时间、精力也是一个问题,所以我们需要传媒平台的介入,但前提是他们本身需要首先接受教育,他们自己应该有一个更加深入而系统的认识。这样的话,宣传报道、电影艺术作品、评论就能够具有一定的深度。这对中国公众的更加健康、更加准确的认知来说非常重要。
第三,其实也来自于自然科学。之前就知道有“科普”这件事。科普这个概念意味着不是把自己非常复杂艰深的理论简化版展示在大家面前,而是让大家对于问题本身能够有更加清晰的了解。
您认为是否会有一些制度性的措施?
刘哲:
其实从制度性措施来说,今年两会完了以后,政府已经公布了很多有关人工智在伦理、法律监管方面的一些倡导。国家的各个部委也有很多相关的举措。
但是另外一方面,我想从学术界当中思考,大家需要潜下心来做一种更加深入的思考,而不是只是满足于表层的一些交流对话,一些大家都知道的愿景式的畅想。
但是一旦进入到这种艰深领域,就会出现教育背景和知识结构支撑度不足的状况,所以我们也需要跟国际合作,通过课程或研究项目的推进,形成一些初步的研究结果。这就要求有非常深刻的训练和理论基础,同时也需要对相关的技术和科学比较高的的接受度。这样的工作其实很艰苦,它需要制度的支持,来允许大家的各种尝试,允许它在短期内没有特别实质性、积极性的成功,从而推动稳定的持续性进展。
您觉得从教育的角度来说,有哪些方面是需要改进,或者说哪些素质是需要被强调?
刘哲:
从教育角度来说,首先我们提到了分科保护,就是一旦进入专业,就只管自己专业的封闭性的教育模式,这是需要改变的;第二个,在这个过程当中,大学的科研机构应该多向着“求真”的方向去,而不是“快点带来实际的产出和利益”。
从同学的角度上说,应该倡导同学们有开阔的视野和格局,而不只是我就做自己的“一亩二分地”以及在学校里考试所获得的成绩。所以它首先不是知识问题,而是心态问题。
再次谢谢您的宝贵时间!
以上采访选自《2019上海论坛访谈录》
编 译 | 国际合作和重大活动办公室 & 寿晨佳