资讯 | 科技伦理与人类未来研究院举办新兴技术伦理工作坊

作者:王晓慧 发布时间:2025-04-30 来源:科技伦理与人类未来研究院+收藏本文


在人工智能快速发展的今天,其所引发的伦理问题与哲学思考日益成为学界关注的焦点。4月18日,多位来自中外高校的知名学者齐聚光华楼2509室,就人工智能发展中的关键伦理议题展开深入对话。本次座谈会涵盖了在线空间的社会价值、AI创造力对人类福祉的影响、AI拟人化的认知风险,以及AI责任归属等重要议题,展现了当代学界对AI伦理问题的最新思考。


图片


会议伊始,来自南丹麦大学的Soren Klausen教授以“消失的权利:论在线空间被忽视的潜在价值”(The Right to Disappear: On an Overlooked Potential Benefit of Online Spaces)为题发表主旨演讲。作为丹麦虚拟世界项目的负责人,Klausen教授关注虚拟世界中的福祉(well-being)与非福祉(ill-being)问题。他的研究不局限于高科技虚拟现实(VR),而是着眼于人们如何在虚拟与非虚拟的混合空间中生活与穿行。


图片


在理论框架上,Klausen教授采用现象学方法,特别引用了Drew Leder的“缺席身体”(absent body)理论。这一理论指出身体具有悖论性的特质:虽然身体是我们最具体、最稳固的存在,但在正常运作时却往往呈现为“缺席”状态。这种“缺席”不是简单的消失,而是一种特殊的存在方式。当身体功能正常时,它会退居意识背景,使我们能够正常地感知世界并与世界互动。只有当身体出现功能障碍或异常时,它才会进入意识前台,成为注意的焦点。


Klausen教授进一步延伸了Leder的理论,引入了“身体疏离”(bodily disappearance)的概念。这种疏离不仅涉及生理层面的功能障碍,还与社会互动密切相关。在社会交往中,某些人会因为自己的身体特征而产生疏离感,这种疏离感会影响他们的社会参与。例如,当人们意识到自己的某些身体特征不符合社会期待时,就可能产生这种疏离体验。值得注意的是,这种疏离体验并不一定源于客观的身体异常,而可能源于主观的现象学体验。


这一理论框架为理解在线空间的社会价值提供了新的视角。Klausen教授特别关注那些在心理或身体上处于弱势地位的群体。他发现,对这些群体而言,在线空间不仅是一个交流平台,更是一个允许身体退场的特殊场域。在这里,他们可以暂时摆脱身体疏离带来的困扰,以一种更自在的方式参与社会互动。重要的是,这种退场并非逃避,而是为了更好地重返线下社会空间。他特别强调,在社会互动中,并非每个人都能平等地获得“消失”的权利。对于某些身心脆弱的群体而言,在线空间提供了一个可以暂时“撤回”的场所,这种撤回不是永久的逃离,而是为了更好地重返线下社会。


图片


来自埃因霍温人工智能哲学中心的Matthew J. Dennis博士的演讲将讨论引向了另一个重要维度,他的报告“创造性人工智能是否威胁人类福祉”(Does Creative Artificial Intelligence Threaten Human Well-Being)引发了与会者的深入思考。这一研究源于对生成式人工智能迅速发展的观察,特别是在创意产业中,AI系统展现出越来越强的创作能力,从文学创作到视觉艺术,从音乐创作到学术写作,AI似乎都能胜任。这种发展趋势引发了一个根本性问题:如果AI能够取代人类的创造性工作,这是否会损害人类的福祉?


Dennis博士首先厘清了创造力的不同层次。他区分了“大C创造力”(Big-C Creativity)和“小c创造力”(little-c creativity)。“大C创造力”指向那些具有重大文化影响力的创造性成就,通常与专业艺术家、科学家等群体相关。这类创造往往需要长期的投入和牺牲,创作者可能需要承受相当程度的痛苦,甚至以个人福祉为代价。而“小c创造力”则指向日常生活中的创造性活动,如业余摄影、家庭烹饪、园艺设计等。这类创造性活动往往带来即时的满足感,与个人福祉有着更直接的正向关联。


在分析创造力与福祉的关系时,Dennis博士系统梳理了当代福祉理论的三大流派。首先是享乐主义理论(Hedonistic Theory),该理论将福祉等同于正面情感体验的最大化。然而,许多重要的创造性活动并不直接产生快乐,反而可能伴随着焦虑和痛苦。其次是欲望满足理论(Desire Satisfaction Theory),该理论认为福祉在于欲望的满足。但问题在于:并非所有与创造相关的欲望都值得满足,有些创造性冲动可能是自毁性的。第三种是客观清单理论(Objective List Theory),该理论试图列举构成美好生活的基本要素。这就带来一个关键问题:创造力是否应该被列入这个清单?如果是,那么是哪种类型的创造力?


为了解决这个问题,Dennis博士提出了“创造性主体”(creative agency)的概念。他认为,在评估AI对人类福祉的影响时,不能仅仅关注创造的结果,更要关注创造的过程。创造性代理指的是个体在创造过程中的自主性和能动性,这种能动性本身可能就是福祉的重要组成部分。从这个角度看,即使AI能够产出高质量的创造性作品,但如果这导致人类丧失创造性代理,仍然可能损害人类福祉。


图片


北京大学王昱洲的演讲“AI拟人化的认知机制与道德风险”深入探讨了人工智能系统的拟人化设计及其影响。王昱洲首先系统地区分了AI拟人化的三个维度:外观拟人化(Physical Anthropomorphism)、行为拟人化(Behavioral Anthropomorphism)和语言拟人化(Linguistic Anthropomorphism)。其中,语言拟人化因其普遍性和隐蔽性而值得特别关注。例如,大语言模型在对话中使用第一人称、表达“情感”和“意图”等语言特征,都构成了一种语言层面的拟人化设计。


在理论框架上,王昱洲主要借鉴了心智知觉(Mind Perception)理论和认知依赖(Epistemic Dependence)理论。心智知觉理论揭示了人类在感知和理解他者心智状态时的基本机制。研究表明,人类倾向于将具有某些特征(如目的性行为、反应性交互等)的对象视为具有心智的主体。这种机制在进化上具有适应性意义,但在与AI系统互动时可能产生误导性影响。


认知依赖理论则关注人类如何依赖他人的证言(testimony)获取知识。在现代社会,我们的许多知识都来自对他人证言的接受与信任。王昱洲指出,这种认知机制正在扩展到人机互动领域:人们越来越依赖AI系统提供的证言,但往往没有充分认识到AI证言与人类证言在本质上的差异。基于这两个理论视角,王昱洲分析了AI拟人化设计可能带来的三类风险,分别是1)道德地位错误归因(Misattribution of Moral Status):当人们将AI系统视为具有类人心智时,可能错误地赋予其不相称的道德地位。这种误归因可能导致道德资源的错误分配,影响对真实道德主体的关注;2)情感态度错误归因:(Misattribution of Emotional Attitudes):用户可能错误地认为AI系统具有真实的情感和关怀,这种误解可能影响人们的情感投入模式和人际关系质量。3)认知权威错误归因(Misattribution of Epistemic Authority):人们可能过度信任AI系统的“证言”,而忽视了这些输出在本质上是基于统计模型的预测,而非基于真实理解的判断。


为应对这些风险,王昱洲提出了几点建议:首先,需要在AI系统设计中保持适度的拟人化水平,避免过度拟人化;其次,要加强用户的AI素养教育,帮助他们理解AI系统的实际能力和局限;最后,可以考虑在AI系统中加入某些去拟人化设计元素,适时提醒用户其非人性本质。


图片


上海交通大学张子夏的演讲“责任鸿沟与伦理关系性”为讨论带来了新的理论视角。张子夏从人工智能责任归属的困境出发,对“责任鸿沟”(Responsibility Gap)问题提出了独特见解。这一概念最早由Robert Sparrow提出,用以描述在人工智能系统做出应受谴责的行为时,可能出现无法找到合适责任承担者的困境。


在梳理当前研究现状时,张子夏指出,学界处理责任鸿沟问题的主流思路往往聚焦于主体性(agency)分析。这种进路试图通过确定AI系统是否具备道德主体性来解决责任归属问题。在这一思路下,研究者们发展出多种类比模式:有人将AI类比为具有完全理性能力的成年人,有人将其类比为类似公司、组织的集体行为主体,还有人将其类比为具有有限理性能力的未成年人。


然而,张子夏认为,这种以主体性为中心的分析框架本身就值得反思。他指出,即便我们能够论证AI系统在某些方面具备了类似于人类的主体性特征,责任鸿沟问题仍然难以得到实质性解决。这一困境提示我们需要转换思考方式,从主体间性(intersubjectivity)的视角重新审视这一问题。


张子夏提出,责任不应被理解为某种可以机械划分的实体,而应被视为在具体关系网络中形成的动态属性。他援引关系伦理学的研究传统,强调责任总是存在于具体的伦理关系之中。在此基础上,他提出了“责任生态”的概念框架,主张将AI系统置于更广泛的社会-技术网络中来理解责任的分布与流动。


这种理论视角的转换带来了重要启示:我们不应将注意力局限于寻找单一的责任承担者,而应关注如何构建更好的责任生态系统。在这个系统中,设计者、使用者、监管者等各方主体都扮演着重要角色。张子夏特别强调,这种生态式思维有助于我们跳出非此即彪的二元对立,发展出更细腻的责任理解模式。


在演讲的最后部分,张子夏探讨了这一理论框架的实践意义。他认为,基于责任生态的思维,我们需要重新设计AI系统的开发流程、使用规范和监管机制。这不仅涉及技术层面的改进,更需要重新思考人机交互的伦理维度。只有在更丰富的关系网络中,我们才能真正应对AI发展带来的伦理挑战。


图片


图片


在随后的讨论环节中,与会学者就多个关键问题展开了深入对话。例如,如何在促进AI创新与确保责任追究之间找到平衡?如何理解不同文化传统中对AI主体性的不同理解?这些讨论不仅展现了AI伦理研究的复杂性,也反映出跨文化对话在应对AI挑战时的重要价值。


图片


本次工作坊由科技伦理与人类未来研究院青年副研究员朱林蕃组织与主持。



摄影|于明志

原文链接 | https://mp.weixin.qq.com/s/zqMWKThhRMzFEFSKvtT4zg