作者: 发布时间:2023-07-06 01:06:50 来源:FDU科技伦理与人类未来研究院+收藏本文
2023年6月27、28日,由上海人工智能实验室治理研究中心、中国科协-复旦大学科技伦理与人类未来研究院主办、中国计算机学会职业伦理与学术道德委员会、上海市自然辩证法研究会协办的“首届AI 双塔论坛‘大模型的伦理设计’——科技与伦理的跨学科对话”在上海人工智能实验室召开。
会议由中国科协-复旦大学科技伦理与人类未来研究院院长王国豫主持,上海人工智能实验室主任助理王延峰为会议致开幕词。
中国计算机学会秘书长唐卫清、暨南大学信息科学技术学院教授古天龙、浙江大学上海高等研究院常务副院长、人工智能研究所所长吴飞、科大讯飞上海研究院院长刘俊华、复旦大学计算机科学技术学院教授邱锡鹏、中国科学技术大学心理学系教授张效初、同济大学设计创意学院特聘研究员王昊奋、上海人工智能实验室智慧医疗研究中心主任张娅、中国社会科学院哲学所研究员、中国科协-复旦大学科技伦理与人类未来研究院教授段伟文、上海交通大学马克思主义学院教授闫宏秀、复旦大学哲学学院教授徐英瑾、中国科协-复旦大学科技伦理与人类未来研究院教授杨庆峰、计算机科学技术学院青年研究员马兴军等二十余位来自学界和企业的专家参与了会议。
论坛围绕大模型伦理设计的理论探索、大模型伦理设计的实践路径、大模型伦理评估的方法与工具,以及大模型设计的伦理评估指标展开了报告与深入讨论。
(现场讨论照片)
古天龙教授与吴飞教授从技术层面探讨了大模型伦理设计的可能性。基于机器学习的生命周期及各阶段中存在的偏见,古天龙教授提出了公平性敏感设计(FAD: Fairness-Aware Design)的概念和大语言模型伦理设计的五大技术应对手段;吴飞教授则以ChatGPT为核心,深入浅出地介绍了大模型的涌现机理和垂直领域大模型建构的可能性。
大模型的应用与社会挑战也是会议的重点讨论内容。张娅教授介绍了医疗大模型研究的现有进展与未来可能面对的挑战。段伟文教授探讨了作为知识引擎的生成式AI所带来的社会伦理冲击,指出在观念和行动上从知识自动化的边疆有序地转移和再转移,拒绝向机器智能妥协并寻求新的有价值的知识工作,将成为人工智能时代人类走向可持续繁荣的首要文明战略。上海人工智能实验室治理研究中心的青年研究员孟令宇分享了治理中心提出的“规则-技术-场景-评测”一体协同的集成式人工智能治理方案。
(现场讨论照片)
在大模型的“人机对齐”问题上,专家学者们从各个角度进行了探索。杨庆峰与闫宏秀教授介绍了大模型伦理设计的哲学理论。杨庆峰教授讨论了由ChatGPT凸显出的技术哲学争论与由嵌入与对齐两种处理方式所指示出的AI伦理归一路径;闫宏秀教授则从“将技术道德化”(moralizing technology)概念的翻译切入,分析了伦理设计进入创新过程的方式,提出了负责任人工智能的信任模型。
(现场讨论照片)
王国豫教授则从大模型伦理设计面临的哲学理论困境出发,指出人工智能难以被“嵌入”道德,但却能以类似“经验获取”的方式“习得”道德,以GPT系列大语言模型的道德发展为例,探讨了大模型道德发展之“经验主义-行为主义”进路的可能性。
张效初教授进一步从认知神经心理学入手,结合心理学实证研究,探索了人类对人工智能语言的感知与人类对人工智能发展的隐性态度。
(现场讨论照片)
来自科大讯飞上海研究院的刘俊华院长介绍了讯飞星火认知大模型的研发进展和价值对齐实践,为会议带来了行业视界。
从技术角度着眼“人机对齐”,上海人工智能实验室青年研究员滕妍总结了大语言模型价值对齐所面临的问题,并重点介绍了实验室团队在大模型价值对齐方面的探索与进展。
(现场讨论照片)
马兴军教授也从技术角度分享了鲁棒人工智能的设计思路,介绍了鲁棒人工智能在对抗攻防、数据模型保护、评估评测等方面的研究现状与前景。
专家们一致认为,虽然“人机对齐”的提出是目前学界与业界在大模型伦理探索方面走出的重要一步,但仍存在着 “谁决定对齐”“对齐谁”以及“对齐的标准是什么”“如何实现对齐”等诸多问题。大家一致认为,大模型在人机对齐方面不仅要考虑技术的可能性,还要考虑文化的鲁棒性与社会的可接受性等多维度因素。
本次会议为“双塔”论坛的首次亮相。所谓“双塔”,既是复旦大学的地标建筑“光华楼”与上海人工智能实验室“西岸智塔”的象征,也是科技与伦理作为人类文明之“双塔”的隐喻。会议期间,与会专家围绕大模型的人机对齐和伦理设计的可能性问题,从科技与伦理的不同视角,进行了一次积极的、多学科、跨学科的对话,为进一步从理论和实践层面推进价值导向的人工智能大模型研究、打造数字时代的伦理基石奠定了基础。