作者:杨庆峰 发布时间:2023-03-28 来源:科学人文在线+收藏本文
大数据的伦理问题除了数据隐私之外,数据信任也是一个重要的问题。对这一问题主要从技术角度探讨缘何信任数据。但是,数据信任的构建还需要对数据信任行为有明确的界定。人与人的信任行为包括因真而信、因情而信和因意而信。而数据信任除了具有这三个方面的规定性,还具有典型的技术特征和社会特征。前者意味着数据信任与技术可靠性密切相关;后者意味着数据信任还与社会-技术体系有关;可以通过至少四种途径来构建数据信任:通过实现系统和算法的可解释性建立系统信任、通过增加数据活动的透明性建立数据信任、通过弱化技术实体化理解来建立技术信任和通过消除技术恐惧来建立技术信任成为主要途径。
信任是意识行为,与知、情、意都相关,其理性成分与非理性成分都起作用;从对象而论,与对象的可靠性、透明性或可解释性有关。而不信任是信任的反面表达,其理性明显会少于信任判断,但更多与怀疑、恐惧的个体集体意识有关。不信任与主体情感、意愿有关系,比如风险担忧、恐惧及黑箱等都是导致不信任的根源。针对几类数据不信任的现象,本文提出如下对策。
通过实现系统和算法的可解释性建立系统信任
智能计算系统是否透明、可解释性决定了人们对系统的信任。“解释对于关乎它们的行动、行为和决策透明(与否)的 AI 系统来说是重要的,尤其是在人类需要基于 AI 系统结果决策的场景(情境)中更加重要。一种合适的解释能够提升人类对于系统的信任,在交互关系中能够允许更好地合作。”所以,破解与技术系统有关的不信任问题主要是构建透明的、可解释的系统,从而让技术人员对系统产生信任。这种信任与技术原理有关。从算法角度看,深度学习(20 世纪 80 年代仅 3—4 层,2014 年为 22 层)中的不可解释性是阻碍其发展的障碍,特别是在图像和文本处理上,很难解释模型到底学习到了什么。生成对抗网络(GAN)的图像生成中深度神经网络构成了“黑盒系统”,实际解释起来也非常难。
通过增加数据活动的透明性建立数据信任
数据活动及其机构信息是否透明决定了人们对数据机构的信任程度。所以,从数据活动的角度看,由于涉及多个环节,那么必须要使得各个环节实现透明化,而且不同环节机构的信息透明化,只有这样才能够获得数据信任。
通过弱化技术实体化理解来建立技术信任
AI 的实体化理解(具有比如基于数据偏见进化而来的恐惧、怨恨、仇视等负面情感的超级智能)强化了对技术的无知和恐惧。这种恐惧化降低了人们对于 AI 系统的信任。而另一方面 AI 过程/原理的黑箱使得人们对技术的信任度降低。如鲁棒性以及不透明导致信任问题的加剧。对于这一点已经有一些学者指出了这一问题。不可解释的 AI 包含的伦理问题有透明性、偏见、隐私安全、可理解性、信任等。
通过消除技术恐惧来建立技术信任
在敌托邦式的技术文化中,大量邪性机器人形象、破坏性较强的奇异战士给人留下了深刻印象,让人们对其产生了恐惧和疏离认知,如 T-800、磁力机器人。这些负面技术文化塑造了对技术不信任的集体意识。而要消除这一点需要重新构建更好的技术文化。
通过上述分析,我们认识到数据信任中关键问题是人如何对数据产生信任。从更为宏观的角度看,这也关系到人如何对技术产生信任这一问题。除了与技术知识本身有关的真实性问题之外,还与技术系统的可靠性与可解释性相关,更与社会-文化因素有关。除了注重技术本身如通过提升技术系统的可解释性、技术结构与功能的可靠性来增强技术信任,还需要注意到与数据活动相关机构的信息透明性的因素,更要注意到一些敌托邦式技术文化的负面影响。只有将技术作为综合性因素才能实现技术信任。
本文摘编自《科技伦理研究(第一辑)》,主编:王国豫,本文作者:杨庆峰,标题和内容有调整。
内容简介
《科技伦理研究》是由复旦大学哲学学院、复旦大学生命医学伦理研究中心主办的学术性专业辑刊。该辑刊由复旦大学哲学学院王国豫教授担任主编,国内外知名学者组成学术指导委员会,由科学出版社出版发行。常设栏目有:生命医学伦理、大数据伦理与人工智能伦理、科技伦理与治理、科技伦理书评等。
创刊号第一辑包括生命医学伦理、大数据伦理与人工智能伦理、一般技术伦理等栏目,生命医学伦理栏目由6篇文章组成,主要探讨人类增强、精准医学等;大数据伦理与人工智能伦理栏目由5篇文章组成,主要探讨数据信任、数据伦理、数字劳动与人工智能伦理等;一般技术伦理栏目由4篇文章组成,包括能源、技术设计、技术物以及技术美学等。