作者:杨庆峰 发布时间:2020-05-08 来源:《哲学分析》+收藏本文
从人工智能难题反思AI伦理原则
杨庆峰
(复旦大学应用伦理学研究中心,复旦发展研究院,上海,200433)
摘 要:不同于以往的任何技术类型,人工智能是人类社会发展的重大历史事件,开创了一个新的时代。基于这样的背景,应对AI本身及其应用过程中产生的社会伦理问题就变成AI伦理思考的重要目标。目前AI伦理的很多思考多是从人类的权利和原则出发来构建伦理框架,如信任、安全、自主和尊严。事实上,人工智能伦理问题的产生很多是源自人工智能发展中的难题。人工智能发展给人类社会带来了哲学、社会和技术等三个方面的基本难题。因此,发出AI伦理的中国声音从根本上来说还是要从应对人工智能发展面临的难题入手。一旦从难题入手,就会发现不可解释性成为上述人工智能发展带来难题的本质。仅仅从技术上理解不可解释性已经不足以为AI伦理构建提供原则基础。通过人工智能与解释学两个路径的梳理,透明性与关联性成为支撑AI伦理的两个必要概念。
关键词:人工智能 不可解释性 透明性 关联性
注:原文发表于《哲学分析》2020年第2期;本文系国家社科基金重大项目“智能革命与人类深度科技化前景的哲学研究”(17ZDA028)阶段性成果;中科院学部“大数据伦理问题及其治理研究”阶段性成果。
杨庆峰
复旦大学应用伦理学研究中心、复旦发展研究院教授,主要研究方向是记忆哲学与人工智能伦理、科学技术哲学等。
在AI伦理的思考中,以人类权利为核心的伦理路径是非常典型的一种方式,这种路径将人类尊严和人类福利作为道德考虑的重心。但是这种路径也遭遇到了一些问题,如人类权利的复杂标准、人类尊严的界定、人类福利的标准等等。丹尼尔.姆洛(Daniel Munro)指出了这条路径有三个方面的困境:人类权利的保障机制、解释方面的挑战和超越最小标准。马库斯.杜波(Markus Dubber)等人即将出版的一部著作《人工智能伦理中的视角与路径:东亚》阐述了东亚地区的AI伦理的视角与路径。面对这一情形,如何发出人工智能伦理的中国声音就变得异常重要了。刚刚通过的世界人工智能大会发布的《中国青年科学家2019人工智能创新治理上海宣言》(简称上海宣言)提出的四大责任——伦理、安全、法律和社会——尤其突出了将技术带来难题(如稳健问题、算法透明)作为责任的出发点。但是这一框架切断了技术与伦理、法律和社会之间的内在关联性。基于这样的考虑,本文指出发出AI伦理的中国声音从根本上来说还是要从应对人工智能发展面临的难题入手,即从人工智能发展带来的哲学、社会和技术难题出发进行分析,阐述其内在的相互关系,并指出透明性作为基础概念的必要性和问题所在,并从解释学角度澄清关联性如何作为另一个必要原则存在。
一、机器智能及其超越:AI带来的哲学难题
人工智能不同于以往技术的本质特征是什么?简单来说,就是多于工具的东西。以往的技术都是人类实现某种目的的工具,而人工智能多于工具的东西就是“智能”。目前大多数智能的讨论主要集中在诸如深度学习等算法原理上。但是这种理解并不是唯一的,如果从人工智能学家斯特阿特.罗素(Stuart J. Russell)出发,就会获得新的理解。他对人工智能给出这样的根本定义:人工智能是理性行动者(rational agent),即在某一个情境中采取最好可能行动的理性行动者。“在本书中,我们采取了这样的观点:智能主要与理性行动有关,一个智能行动者在一个情景中采取最好可能的行动。我们研究了这个意义上被构造为智能的行动者问题。”在这个理解中,我们更多是看到了人工智能行动者与行动的内在关系,即智能行动者能够产生中采取理性行为;也看到了行动与情境的内在联系:人工智能体的行动是在某一个情境中做出最好的决策和行动。此外,这个定义有效地避免了一个难题,人工智能体不是主体,而是行动者。这个规定避免了难缠的形而上学问题,而是从情境与行动的角度对人工行动者进行了界定。这里也意味着人工智能的可解释性问题可以从行动与情境的关联为根据来演绎。
超越问题是精神性活动维度,即机器智能能否超越人类智能,更多触及的是人工智能的终极指向,涉及到通用人工智能和强人工智能的问题。奇点理论指出,到达“技术奇点”就会实现机器与人类的最终博弈:机器超越人类还是依然处于人类的控制之下。基于这一问题引发了很多伦理担忧:比如人类的自主性、自由和尊严都会受到极大影响。应该说,对这个问题的关注引发了科学界和哲学界的众多讨论。如果继续思考就会发现,以上关于超越问题的思考都源自一个基本前提:人类与机器都是进化的。如果从罗素的人工智能定义出发,我们会发现超越问题的基础是智能行动者,如果智能行动者具备自主意识或者自主意识获得觉醒,那么它就会成为一个与人类相异的他者。根据人工智能学者根本定义,人工智能是像人一样思维或者行动。我们具有认知、判断、情感等能力,而人工智能研究已经沿着这条道路前进。人工智能具备认知、判断能力,人工智能也能够显示出自己的情感状态。超越话语中,人工智能被描述为类似于人类的行动者,弱人工智能表现得就像儿童一样,而强人工智能表现得像聪明的成人一样,而超级人工智能表现得像超人一样。在思考及行动的结构方面,人工智能类似于一面镜子,通过技术实现着人类的相应行为。但是,超越话语没有注意到的情况是:人类与机器之间存在着的相似关系。这种相似关系类似于二元论:在人类与机器之间存在着先验的相似性。一篇有26位作者署名的论文研究了人工智能走迷宫问题并提出了一个值得关注的结论:人工智能中类似网格的表征给行动者提供了一种欧式几何框架:如同哺乳动物发展出的网格结构,其功能如同康德的空间形式来组织知觉体验。 这篇论文极力说明了三个问题:(1)智能行动体表现出与人、动物相似的类似网格表征;(2)在应对复杂的外部环境时,类似网格的表征有助于人工行动者在空间中定位、组织路径。(3)如果没有外部因素的干扰,这种表征结构是比较稳定的。如果说在人与智能体之间存在着先天的相似性,机器智能的发生就变得极其可能了。
二、智能机器及其取代:AI带来的社会难题
取代问题是物质性活动维度,即是人类实践活动能否被智能机器取代。在这一问题中,实际上具有双重意义:其一是从人类活动的本性看,机器取代人类活动是人类活动技术化的必然结果。如果某些人类活动可以自动化的话,意味着能够被自动机器取代,所以这种取代会根据人类活动的自动化趋势而扩展;其二是从超级智能的角度看,机器取代人类意味着机器获得自主意识之后产生的必然后果。当机器智能超越人类智能之后,按照进化逻辑,机器智能必然会以高级的形式来改造低级的形式,出现的结果就是取代人类活动。比如自动驾驶汽车取代人类司机、智能法官取代人类法官、智能医生取代人类医生。所以取代问题实质是双重的,人类活动的自动化趋势及其超级智能生成的结果。从第二个方面看,它是超越问题衍生的必然结果。
首先我们考察第一点。何谓人类活动的技术化?在日常的表达中,人类活动的自动化意味着人类活动的一种本性,能够被某种功能同构的其他活动取代。人类活动技术化的整体经历了一个从身体部分的技术化、身体功能的技术化到个体身体的技术化以及人类整体的技术化的演变过程。这一点我们从技术发展史中可以感受到。以喝水为例,最初人们喝水是靠手捧,从河水里面捧水喝。但是这样的效率很低,随着不同种类的容器出现,容器的装水功能取代了人体[手]的功用,这样可以获得更多的水,效率也随着提高。在这个过程中,我们一方面看到的是喝水功能的演变,从手到容器的出现;另一方面看到的是手之容纳功能被同构的容器取代。这一点是人类学考察的结果。所以,这个过程是身体器官的技术化。所谓器官延伸论的哲学解释就是身体器官的技术化,身体功能能够以技术化的方式被替代,如同上面的被子的容纳功能取代了手的容纳功能。其次是身体功能的技术化,如五感的技术化,五感指的是视听味触嗅,它与身体相关,但不是身体部分,而是身体功能。人类的身体功能多半以感知功能的形式表达出来,如眼睛的远望、耳朵的倾听、腿部的、腰部的等器官的力量。大部分都可以实现技术化,人类身体的功能不断技术化在不同时代表现不同。接着是整体身体的技术化意味着人类个体的技术化,这一点已经是马尔库塞在《单向度的人》中加以揭示的结果,个体变成了技术系统上的一个环节,其功能被取代。这一取代的自然推演结果是人类整体的技术化,20世纪60年代以来,控制论-系统论等科学与人工智能技术带来的是自动化的趋势,这种取代更为彻底,实现的是整体身体的取代或者整个类的取代。所以,这个过程表现出的是不断技术化的过程,从身体部分、身体功能到个体身体和人类整体的技术化。从这个发展脉络出发,我们就可以看到不同社会中这一过程如何表现为社会难题了。身体部分与身体功能的技术化带来的社会问题并不是很明显,因为这个时期技术仅仅表现为具体的器物,以眼镜为例,望远镜、显微镜等器物的出现,掀起的仅仅是一些日常的争议,很快被人类社会所接受。但是当个体身体被技术化的时候,哲学家表示了极大的批判,这种技术导致的异化成为了猛烈的批判目标。人类整体的技术化更是如此。这种批判更加彻底化,我们从马克思那里能够感受到,当他讨论工业机器带来工人失业的问题时,更多不是指个体的被取代,而是人类整体的异化。所以,从这个角度来看,这是人类活动不断外化的结果,外化通过技术化的方式表现出来。
其次,取代问题是超越问题的深度表现,即智能机器自主意识觉醒的必然结果。在上面我们提到,超越问题的基础是智能行动者,如果智能行动者具备自主意识或者自主意识获得觉醒,那么它就会成为一个与人类相异的他者。事实上,在我们的分析中已经指出,人工智能学者正在这一理解以根据。根据罗素的看法,人工智能是智能行动者,它能够基于特定的情境做出最优化的理性选择。这一点指出了人工智能体的行为与情境之间的特定关联,但是这一点的重要性很少被关注到。所以需要在后面加以进一步的分析。其次,根据DeepMind的研究成果显示:人工行动者具有和人类、动物一样的空间记忆表征结构。如果从此出发,我们会发现至少在这两个方面,人工智能表现出与人类一样的同构性。这种同构性的存在使得机器能够出现自主意识。只是差异在于人类进化经过了很长的时间,而且是在特定的自然环境条件下进化的结果。对于机器而言,同构性的存在意味着具有了先天的可能性。而大数据技术正在给人工智能体提供更加丰富的数据环境,在深度学习、增强学习的算法帮助下,自主意识以新的形式出现,也不是不可能的事情。所以本文的一个基本观点是,人类与机器的整体进化尽管不是同步的,但是同构性使得他们能够获得进化结果。在此基础上,自主意识觉醒后的逻辑结果是对待他者问题。在机器自我意识诞生之前,人工智能在各类游戏(围棋、国际象棋、桥牌)、疾病识别等方面表现出通过图灵测试的迹象。这说明在某种程度上人工智能可以作为独立主体存在,它能够创造艺术作品、能够写作新闻稿件,甚至产生论著。取代人类的知识生产的角色已经变得可能了。此外,随着人机融合程度的加大,我们即将面临新的纽拉特之船的迹象,人类器官不断被机器取代,最终会演变成机器躯壳。按照机器自身逻辑的结果,取代成为众多可能性之一。
超越问题和取代问题会把我们带入到实体论中,即把人工智能看作是超越人类自身实体力量,能够自主进化、自主发展的力量。这会带来一个严重的伦理问题:人类创造的工具最终摆脱人类自身的控制,变成异化的力量。取代问题是技术异化的最终结果。人工智能何以发展出自主意识超越并且取代人类就成为难以理解的问题了,我们把这一问题称之为人工智能的不可解释性问题。目前,这一问题主要被看作是技术问题,而且这一问题的存在对人工智能伦理的构建产生了不容忽视的影响。尽管如此,上述考虑并没有充分意识到不可解释性问题从根本上来说还是哲学问题。
三、深度学习及其解释:AI带来的技术难题
清华大学的张跋院士及其团队指出第二代人工智能遇到了鲁棒性和不可解释性问题,技术界提出可解释的人工智能(XAI)目标,然后提出诸多破解XAI的路径和方法,如孪生系统路径(twin-systems)、对话路径(Dialog Model)。牛津大学的一些学者指出,不可解释性问题的存在使得人工智能伦理的信任原则难以构建,不可解释的AI包含的伦理问题如透明性、偏见、隐私安全、可理解性、信任等(Bostrom and Yudkowsky, 2014)。作为技术难题的不可解释性主要表现为三个方面:首先是表现为人工智能代际发展中的一个难题。从代际发展看,不可解释性是人工智能发展过程出现的一个现象。第一代AI不存在不可解释性问题,不可解释性问题出现在第二代。清华大学人工智能研究院基础理论研究中心成立大会上,张跋院士指出,第三代人工智能需要“探索发展鲁棒、可解释的第三代人工智能基础理论和方法”。其次是表现为人工智能自身有关的技术难题,如深度学习方面。算法不可解释性主要是指伴随深度学习产生的不可解释性。深度学习(80年代仅3-4层、2014,22层)中的不可解释性是阻碍其发展的障碍,特别是在图像(GAN)和文本处理上,很难解释模型到底学习到了什么。生成对抗网络(GAN)的图像生成中深度神经网络构成了「黑盒系统」,实际解释起来也非常难。“例如医疗等一些领域需要高的可解释性和透明性,这意味着我们需要能够解释机器决策和预测,证实它们的可靠性。这需要更高的可解释性,这意味着我们需要理解算法的机制。不幸的是,深度学习的黑箱本质始终没有被解决,许多机器学习很少被理解。”第三是表现为人工智能体行动有关的难题,如行动者的感知、思考/决策和行动环节中的不可解释性问题。“解释对于关乎它们的行动、行为和决策透明[与否]的AI系统来说是重要的,尤其是在人类需要基于AI系统结果决策的场景[情境]中更加重要。一种合适的解释能够提升人类对于系统的信任,在交互关系中能够允许更好地合作”。 针对上述三个方面的问题,人工智能学者提出可解释的人工智能(explainable AI,XAI),来破解不可解释性问题,比如利用孪生系统路径(twin-system approach)来破解不可解释性问题。“提出孪生系统来解决XAI问题,不可解释的黑箱系统被匹配到更易解释的白盒双胞胎。”还有学者提出“掌握能力测试”来把握一个哪个解释更好地解释算法?并将其作为一个可实现的目标。在中国计算机学会即将召开的“可解释的AI”工作坊围绕几个方面的论题展开研讨:针对可解释AI的算法、工具和框架、修正的具有可解释特性的深度学习模式、可解释的结构、因果模式、从作为黑箱的任一模式中推演出可解释的模式、评价可解释性、特征与度量、可解释AI的商业应用、AI中的公平、可解释性与透明、伦理方面和法律、法律问题和社会责任等话题。
四、人工智能不可解释性的多重维度
不可解释性作为哲学难题表现为对不可解释性与可解释性的哲学区分,澄清可解释的哲学本质,更基本的是直接指向解释概念本身。我们最终面对的问题是:现有的可解释人工智能依据的基本概念及其局限是什么?对于这一问题,我们更多看到的是计算机学者的一些工作。有学者对不可解释性问题的多元维度进行了分析。“研究者尝试发展可解释的AI(XAI)来满足实践的(例如可解释性积极地与使用者的学习绩效相关)、法律的(可解释性满足S.E.C.的需求去仔细检查AI驱动的贸易技术;可靠性问题)和伦理的(例如解释的权利、信任和自主性)预期。”帕拉珊.马杜迈(Prashan Madumal)被揭示出来的这些维度说明人工智能被看作是一种工具,可以应用到不同性质的人类社会场景中。如自动驾驶汽车的不可解释性问题就会和法律相关、医疗中的诊疗机器人的诊断何以被采信就关系到伦理;而利用人工智能来产生艺术品和制造知识就会牵涉到重要的人类实践活动。从这一点上来看,这里的维度均可以还原到技术之上。沿循着工具路径,不可解释性就等同于与技术原理或者过程有关的“黑箱”。黑箱多少是一种比喻性的说法,针对技术而言,主要是指技术自身的复杂性。因此,克服不可解释性的问题就意味着破解技术黑箱的秘密,将黑箱秘密呈现出来,让整个过程变得透明起来。正如我们看到的,针对深度学习,需要构建修正的可解释的深度学习模式,构建与黑箱相对的白箱等等模式。这些方法都是力图让技术原理或算法变得清楚可见。所以,这样一来,透明性(transparency)成为一个人工智能领域共同认可的概念。可解释性意味着获得技术的透明性,意味着让技术原理(比如深度学习机制)变得透明起来,将如何运行的过程呈现出来。
在笔者看来,人工智能的不可解释难题根本上是人工智能解释问题。那么,它是科学解释还是技术解释还是哲学解释的话题呢?人工智能中的解释问题并不纯粹是科学解释。科学解释的主要特性是因果解释,而建立在大数据基础上的人工智能开始展现出非因果的特性。众所周知,科学解释是追求背后的原因,回答为什么的问题。“因为科学解释的主要原则是因果性的,表达理论定律的等式总是被虚拟描述为因果定律,例如原因和结果之间的常规关系。……其中演绎-定律(D-N)模式借助定律,而不是理论来描述科学解释。”此外,根据原理—理论—定律(PTL)模式,“科学解释主要是显示经验事实(定律或者规则)如何只是科学核心中定律的显现。”对于人工智能而言,很显然不是因果意义上的把握,也不是定律的经验显现。但是由于它依据的神经科学、计算机科学等自然科学理论,所以它又无法完全与科学解释分离开,从原理本身来说,人工智能解释是建立在科学解释之上的。但是,人工智能的解释性又带有技术解释的特性。各个领域的机器人、各种操作程序等人工智能本身又是技术装置,这种装置符合技术本身,所以从技术运用来说,人工智能解释是技术解释。但是人工智能与生产中的机器、生活中的技术物品还是有着极大的不同。这就是体现它自身之中的智能行动。这种智能性意味着人工智能如生物体一般进化,甚至能够产生出自我意识或者让自身自我意识在某一个时刻突然觉醒。如此,人工智能解释又具有目的论解释的特性,这就是它朝着自我意识产生这样的目的进化。为了更好地洞察不可解释性可能出现的情境,我们梳理了四种相关情境,以便更好地看到不可解释性问题出现的场域以及克服相关问题的可能性出路。
人工智能的行为是类人行为,“像人一样思考和行为”。这一最初的定义可能是从比喻意义上说的,从外观的类似和行为模式的类似,这些都可以看作是描述意义上的类似。但是随着神经科学、脑科学的发展,人工智能的类人性已经超越了描述意义上的类似,而进入到机制上的类似,如制造出具有移情能力的机器人。所以人工智能的可解释性还需要从人类行为的解释中获得启发。何为人类行为的解释?“人类行为通常借助理性化而获得解释,例如引用行动者的信念和愿望(以及其他意向的精神状态,如感情、希望和期望),这些构成了做某事的理由。……这种解释通常会面临两个问题:是否合理的解释是因果性的,例如它们是否将信念和欲望作为行动的原因,另一个问题是这样的合理解释是否必须吻合规律模式,如果是这样,什么样的规律可能支持这样的解释。”澄清信念-欲望与行动之间的关联就成为解释的主要任务了。根据人类行为解释的原则,需要给行为找到一个合理的认知、信念和愿望的根据。对于智能体行为来说,这一点是似乎有着实现的可能性,当具有情感、判断、同感的机器人成为现实的时候,机器行为也找到类似于人类的认知、信念和愿望等这样的合理根据。但是,这毕竟不是根本,人类解释最根本的特性恐怕是与此在有关,也就是海德格尔揭示出来的在世之中的存在结构。如果人工智能的可解释性与这种有关,这才是真正面临的挑战。我们从技术本身出发,结合技术之行动、技术与人的关系制作了下表:
表1 可解释性与不可解释性的辩证关系
表1让我们充分感受到人工智能中的不可解释性问题恐怕不仅仅是技术黑箱意义上的,原理黑箱与技术理解、技术行动以及人与技术的关系等共同构成了人工智能可解释性的四个方面。我们可以对这个表格进行分析:
(1)第一种情况是关于技术观念的,即对什么是技术的回答。在技术观念上,存在着两种主要的解释,一种是工具主义的解释,另一种是实体主义的解释。工具论的解释是大众普遍接受的技术解释,强调技术是人类学意义上的、实现目的之方式。在这种观点中,技术是人能够制造、掌控和处置的工具,技术物废弃可以丢弃、部件损坏可以更换。“技术是工具意味着发挥功用是以其他事物为代价的,事物被控制、被改造、被组织。”对这种观点进行批判所产生的观点就是实体主义的解释。这种解释以海德格尔为代表,他将技术的本质看作是座架和天命。在这种观点中,技术表现为一种超越人类的力量,技术自身的神性因素开始显现。所以,在技术理解中,可解释性指技术从工具主义的角度给予解释,技术被理解为人类可以制造、掌控和处置的工具。不可解释性是指技术自身开始表现出超越人类的性质。目前人工智能的思考中,这种不可解释性开始表现出来。对人工智能的意识问题的讨论越加这个问题凸显出来。奇点理论、超越理论、觉醒理论等等都为实体主义观念的形成起到了推动作用。所以如果追求可解释的AI,在这个意义上一定是基于工具论的理解,将人工智能限制在“属人”的性质上。这意味着人工智能仅仅表现为辅助工具,成为人类自身的助手。所以,技术理解上的不可解释性意味着AI的实体性理解,保持着这种性质会强化人们对人工智能技术的无知和恐惧。
(2)第二个情况是关于技术原理的。不可解释性即技术运行和原理的黑箱;AI过程或者原理的黑箱特性使得人们对技术的信任度降低。面对这一情况,技术界给出的方案是构建技术白箱。这意味着让黑箱变得透明,让技术运行和原理变得可理解。所以,在这种情况下,透明性就成一个重要的原则。技术是可解释的意味着技术黑箱变得透明化,不可解释性意味着技术保持着黑箱状况。
(3)第三种情况是关于技术行动的。这里的行动是与情境关联在一起的。行动是根据某种情境做出的行动,是依托于情境而获得理解的。从这一前提出发,不可解释性是指技术行动完全脱离了情境变得不可理解;我们可以举出一个例子,扫地机器人。一个扫地机器人的工作环境是屋子,打扫屋子。但是一旦扫地机器人不再扫地而变成了洒水功能,那么就变得难以解释。而可解释性是指技术行动符合预期的情境,比如扫地机器人在扫地。这里会牵涉到技术设计上,尤其是与功能设计有关。但是,我们想表达的是,在整个技术行动的情况中,原先的技术物的功能仅仅表现为行动,而情境是功能得以实现的可能性前提,也是理解行动的前提。所以,可解释性不仅仅是关乎到行动的可解释性,更关乎到与行动有关的情境的可解释性,即构造出可解释的情境。这更多表现为合乎设计初衷的情境。AI脱离情境[场景]导致人工智能的变异,让人工智能变异为一种妖精的形态。
(4)第四种情况是关于技术与人的关系。不可解释性即技术以在手的状态呈现出来。这一模式是从这一前提出发,不可解释性即人与技术关系的透明性(transparency)的断裂,技术物以在手状态出现;AI与人类关系的不透明,技术物处于在手状态,技术物始终在场。
通过对上面四种相关情境的梳理,我们发现透明性概念是针对技术原理的概念。这一概念体现在技术原理和过程之中,其意思是打开技术黑箱;还体现在人与技术的使用关系中,人与技术之间的透明意味着技术物抽身而去,隐而不现。如戴着近视眼镜的人都有这样的体验,眼镜并不妨碍人们的行动,在观看和行动过程中,眼镜这一技术物隐而不现。对于这一关系,美国技术哲学家唐.伊德曾经做过极为详尽的分析。但是正如前面所说,透明性概念过于狭隘,对于技术本身来说,是没有任何问题的。但是无法涉及到技术与人的关系。而涉及到这一维度的可解释性时,透明性概念并不能让我们更好地理解人工智能。毕竟这种概念存在的先天局限就是依然在“机器+行动”的模式种来理解人工智能,而人工智能的根本定义“智能体在场景/情境中采取最好的行动”是我们需要去解释和面对的。在这一情况下,人工智能的可解释性需要怎样的哲学概念呢?解释学和现象学能够为这一概念的确立提供怎样的新概念呢?
五、关联性:可解释性的新基础
本文认为,在情境与行为之间建立起有效关联是人工智能可解释性可依托的关键,所谓不可解释性也多是无法在场景和行为之间找到契合点,而可解释性是指为行为设计出合乎的情境。我们需要重新梳理解释概念的才能够确立起哲学根据。在新的框架中,不仅经典现象学成为解释学的缘起框架,而且后现象学也被考虑在这样一个框架内。在经典现象学-后现象学的框架中,解释学所经历的四个阶段就可以被描述出来。总体来说,在这样一个框架中,解释学的H-H-G-I模式就可以被勾勒出来。H是指胡塞尔与海德格尔的现象学、G是指加达默尔的解释学、I则是指伊德的解释学。H-H-G确立起来的是先验的解释模式,而I确立起来的是经验的解释模式。他们共同点是将行为与先验框架之间的关联性给予不同的描述。
胡塞尔对解释的分析指向了“世界—对象”的意向关联。他构造出了诸多先验模式,如“世界-对象”“视域-对象”“意向行为—意向对象”等。这些模式,展示了被知觉对象得以显现的可能性条件,从不同层面展示了对象何以显示出来。从先验模式中,我们能够把握到的是,客体可以说是存在于背景之中的对象,当客体被感知到的时候,是相对于背景关联被感知到的。“在胡塞尔看来,客体不是被孤立知觉到的,而是相对于一种背景被知觉到的,而且是在由其他客体及其他躯体(也包括其他人、动物等等)组成的一种‘周围世界’(Umwelt)之内被知觉到的。” 这段论述对我们意义较大:首先是在这个由对象组成的周围世界中,其他躯体是很重要的一个因素,比如其他躯体。“躯体”包括其他人和动物的躯体。在这里我们能够看到机器躯体呈现的可能性。在胡塞尔的生活世界之中,机器躯体并没有被考虑在内,而且后来的标志着赛博格时代开启的人类、动物和机器混合的新的躯体。如果我们把这一先验论述的原则加以经验化,就会看到机器躯体作为视域构成物的可能性。其次视域不仅仅是静态的条件,而且有着时间性的规定。“每一体验都具有一过去,此过去淡入一未决定的‘过去视域’,而且同样,它也有‘未来视域’。”这一先验规定应该说非常重要,它揭示了视域自身的流变性,体验自身要淡入‘过去视域’,而‘未来视域’之物会当下化。这是视域变动之根本特征。这也解释了被解释对象的时间性。如果从记忆哲学的角度来说,对象在记忆意向性之中呈现出过去,而在预期意向性中将未来展现出来。胡塞尔指出了“世界—对象”这一模式中还有一个非常重要的特性,这就是世界与对象的静态构造性,即这是基于先验现象学的静态分析,并没有对发生问题进行论述,所以其局限是没有清楚地解答“世界何以使得对象呈现出来”这样的问题。
海德格尔对解释的分析直接指向了“世界-对象”的先后指向结构,他对解释的阐述有两点是值得我们注意的。首先,海德格尔给我们了关于解释的形而上学界定。在他看来,“理解—解释—语言”。“解释”根植于理解,奠定于先见,其首要的任务是“从事情本身出发来整理先有、先见和先行把握”。不同于胡塞尔,海德格尔从对象转移到了语言。其次是他突出的是解释的在先性,先有、先见和先行把握的特性。所以,在海德格尔那里,视域的在先性得到了保留。这种解释应该说进一步澄清了世界与对象之间的关系。因为在胡塞尔的解释中,世界与对象之间的在先性并不是那么明显,对象只是相对于背景做出的存在。所以,海德格尔的阐述让我们更清楚地意识到了世界视域的先行性。
加达默尔提出的模式是“文本—视域—融合。”他将这样一种形而上学的阐述引入到文学文本中。这造就了一种文本意义上的解释学。这意味着加达默尔接受了海德格尔的先行意义,即从效果历史中将文本的意义敞开。在整个过程中,他将视域经验化为多元的表达,也正式因为如此,才出现多元的视域融合、异质的视域融合。在融合的基础上,他为解释奠定了一种可能性的前提。当视域多元化之后,必然会出现彼此交融。所以隐含在视域之中的这一规定性在海德格尔和伽达默尔那里得到了充分展现。“视域概念其后被海德格尔并特别是伽达默尔所借去。后者认为相互理解是通过某种视域重叠而发生的。在其《真理与方法》中,伽达默尔把一视域说成‘不是固定的界限,而是某种随着人移动并促使人进一步前进者。’”
但是,解释不单单是经典现象学框架内得以回答的问题。我们还需要将后现象学的框架考虑在内。唐•伊德解释这样一个不可忽视的人。他从一开始就对利科的解释学现象学进行了比较深入的研究,后来对胡塞尔、海德格尔的研究也成为他的思想来源。伊德给予我们的框架是“解释—技术—透明”。他运用海德格尔的一对范畴“在手状态/上手状态”对技术与人的关系给予了充分地说明。在他看来,技术就像海德格所说的「抽身而去」,变成了准透明的,因此,技术在这里并不是「像对象一样的东西」。这一观点中实际上突出的是使用情境,在使用情境中,技术的可解释性不单单是技术自身的事情,还与使用情境密切联系在一起。
所以,通过上述思想溯源我们可以看到,现象学家为我们构建出的是对象与视域、对象与世界的先验论述,而这种先验论述完全可以作为我们反思可解释性的出发点。解释意味着使得对象成为可能的条件加以呈现出来,意味着将前提性和条件性的东西呈现出来。这样做的特点是将对象与世界之间的关联给予描述。在科学解释中,对象与另一对象发生着因果关联,但是在哲学的解释中,正如我们看到因果关联被包括在更大的关联之中,并不是对象与对象之间的联结,而是对象与世界的关联,在这种关联中,世界成为对象得以可能的条件。那么,从这一前提出发,可解释性可以做出如下规定:哲学上的可解释性意味着对象何以可能的条件呈现出来,所呈现之物是在先的,不仅如此,还要呈现二者关联的内在规定。而从此出发,不可解释性是指对象何以可能的条件无法呈现,意味着走向不可知领域或者是超验领域。
六、结语
通过上述分析,我们已经表明了一般情况下,人工智能的不可解释问题更多是从技术层面进行分析的,其内在的哲学根据是透明性,构建可解释的人工智能的方法就是获得透明性的过程,这也成为可信的人工智能的概念基础。但是,这一问题不仅仅是技术问题,而是哲学问题。技术观念、技术原理、技术行动和人与技术的关系是不容忽视的四个方面,尤其是技术行动是最为重要的环节。从这一点出发,我们发现透明性无法作为澄清技术行动的有效概念,无法让技术行为获得更多的可解释性。对于日常人来说,即便技术机制变得清楚透明,由于术语、背景等多种因素的限制,依然是难以理解。一味坚持透明性作为可解释性的哲学基础意味着在日常与技术之间划出了很深的鸿沟。但是从技术行动与情境出发,我们发现这一鸿沟有了被消除的可能性。借助现象学-解释学的理论资源,我们发现了行动与世界、行动与情境之间的内在关联。
如此,只有构建合乎情境的行动才是可解释人工智能的真正根据。这样做将使得我们进一步对机器行为与情境的关系产生思考。如果人工智能机器的行为合乎情境,或者具有在其中的特性,那么机器与人类的差距将再次被说明是一个伪命题。也只有借助这两个原则——透明和关联——可解释的人工智能的构建才有了两条腿的支撑,变得更加稳定了。