把握人工智能治理节奏,破解科林格里奇困境

作者:复旦马研院 发布时间:2026-04-08 来源:复旦发展研究院+收藏本文

2026年3月29日,复旦大学“两大工程”三期项目——“人工智能伦理的中国之治研究”开题会暨“科林格里奇困境与人工智能治理创新”跨学科论坛在复旦大学马克思主义研究院205会议室成功召开。校内外多名专家学者与课题组成员近三十人齐聚一堂,围绕学术前沿展开深入交流,探讨课题后续推进路径。


图片
图片


左右滑动查看更多


「寻求风险规避与技术创新的平衡」


复旦大学马克思主义研究院副院长许蓓蕾出席会议并致辞。她指出,复旦大学“两大工程”三期项目聚焦党的创新理论学理化阐释与中国自主知识体系的原创性构建,着力推动哲学社会科学的知识创新、理论创新、方法创新。“人工智能伦理的中国之治研究”将学术前沿与国家重大治理战略紧密结合,具有重要的时代意义与现实价值。她进一步介绍了马研院机构改革后的定位及其在推进马克思主义理论跨学科交叉融合创新方面的实体平台作用。她表示,马克思主义研究院将全力配合课题推进,搭建学术交流桥梁,支持课题组与期刊、智库、媒体深化合作,着力推进教书育人与决策咨询的成果转化。


图片


复旦大学马克思主义研究院副院长、副研究员、项目负责人李凌围绕课题作开题汇报。他系统阐述课题的立项背景、核心假设与研究特色。李凌指出,课题提出的“治理节奏”一词取法《周易》“节卦”,蕴含着中华优秀传统文化对事物运行规律的深刻洞察。课题聚焦“科林格里奇困境”,即对先进技术干预过早可能阻碍创新,干预过晚则易导致技术“尾大不掉”的监管悖论,有效回应了近期的AI投毒与生成式引擎优化争议。课题明确提出“中国人工智能治理模式在平台发展和产品层面上更具优势”的核心假设,并提炼出敏捷治理、法治治理、柔性治理、人本治理、协同治理等中国之治特征,探索并论证中国模式在实现风险规避与技术创新平衡中的独特作用。


图片


复旦大学新闻学院教授、马克思主义研究院副院长马凌主持开题会,与会专家对课题的前瞻视野与扎实基础给予高度评价,并从理论模型、国际比较、治理节奏及落地路径等维度提出建设性意见。清华大学新闻与传播学院教授陈昌凤建议,应分层级将宏大的治理概念落地到具体应用中,在针对性应对技术动态的同时提炼“中国之治”的规律性模式。东南大学人文学院教授、AI伦理实验室主任王珏高度认可“节奏”一词的辩证动态视角,建议进一步凝练六维政策评估模型,增加“系统性”维度,并从产业和技术底座的内生角度探讨AI主权与协同治理。中央民族大学新闻与传播学院教授郭全中建议增加对互联网企业治理的纵向演进研究,重点回应如何平衡严格治理与保持“独角兽”企业活力的问题,并强调需考量不同平台间的动态博弈关系。湖南师范大学哲学学院教授李伦指出,该课题顺应了伦理学从书斋理论走向现场诊断的深刻转型,建议进一步强化国家战略视角,将AI治理与2035、2049两大战略目标深度结合。上海社科院法学所研究员张艳从法学角度肯定并阐发了人工智能中国之治的具体内涵,并对丰富治理研究维度提出建议。上海计算机软件技术开发中心研究员陈敏刚从技术角度提出进一步加强人工智能伦理治理的基本原则、技术趋势。李凌对专家意见逐一回应,表示将充分吸纳建议,进一步优化研究框架与评估模型。


图片



AI伦理前置化、工程化与制度化要求更加紧迫


开题论证结束后,会议进入“科林格里奇困境与人工智能治理创新”跨学科论坛环节,由《南京社会科学》副总编辑虞淑娟主持。与会专家学者围绕前沿技术趋势、伦理工程化、法治框架及企业实践等议题发表主题演讲。


图片


清华大学新闻与传播学院教授陈昌凤以《OpenClaw之后:Agentic AI的入口之争与治理节奏》为题,指出AI已从“对话模型”进化为具备多模型调用能力的“代理系统”(Agentic AI),成为深入知识生产与工作流的新型基础设施。在智能体时代,人机交互的“入口”成为权力争夺的核心,这种转变将权力从底层大模型转移至代理界面的“规范设定权”与“路径把关权”。她强调,随着智能体接管任务分配与决策链条,传统的治理逻辑面临失效,责任归属、主体性认定等伦理实质问题亟待在更前置的机制层面进行重新审视与界定,治理节奏更显急迫与重要。


图片


东南大学人文学院教授王珏发表了题为《人工智能伦理的跨学科进路:以“问道伦·理·大模型”开发为例》的报告。面对当前大模型语料库中潜藏的意识形态安全与偏见风险,她分享了团队将“伦理工程化”的生动实践。团队以工科思维与文科价值共创,自主研发了系统级伦理垂域大模型“问道”,创新性地实现了机器侧的“伦理思考与伦理应答”,大模型能够进行全流程的伦理审查、风险评估与推演,致力于将“问道”打造为可信赖的“伦理基础设施”,推动治理逻辑前移至技术设计阶段,为保障中国AI技术的文化适配性与安全性贡献自主方案。


图片


中央民族大学新闻与传播学院教授郭全中以《GEO的未来与治理》为题,深入剖析了大模型的认知机制与GEO(生成式引擎优化)“AI投毒”的运作逻辑。他指出,大模型可能遭受数据污染与检索劫持。他强调,AI时代的互联网传播正从“流量争夺”全面转向深度的“信任经济”,企业应摒弃短期恶意投毒,主动构建高质量数据集等信任资产。他呼吁建立技术防御、行业自律与用户监督相统一的多方协同治理体系。


图片


湖南师范大学哲学学院教授李伦以《相称原则与人工智能治理节奏》为题作主旨报告。他深入梳理了美国与欧盟在AI监管政策上的波动摇摆,指出大国监管节奏的调整本质上服务于其国家主导权及产业利益。面对“极端先行”与“极端预禁”的两极化态度,他主张中国应坚持“相称原则”,即基于国家战略目标与本土文化传统进行AI风险分级认知,确保预警、慎行等干预手段的力度、审查程序与项目的风险级别相匹配,不盲目冒进,稳步推进符合中国国情的AI治理与伦理审查体系建设。


图片


上海社科院法学所研究员张艳以《在规则中对话——中国数字法治的制度表达》为题发言。她以“AI聊黄案”的司法裁判为例,指出技术风险往往先触及伦理边界再进入法律评价。她剖析了中国AI治理“基础法律+专门管理规定”的二层法治框架,并强调国家立法趋于审慎、发展与安全并重。她提出,伦理要求必须经过“概念区分、制度协同、工具分层、规则定型”的逻辑链条,才能从抽象原则转化为可追责的法律义务(如标识、备案等),真正落实数字法治的制度化。


图片


上海计算机软件技术开发中心研究员陈敏刚以《生成式人工智能应用风险、测评与治理》为题发言。他指出,大模型正加速向能自动执行任务的多模态“智能体”进化,但同时也带来了更隐蔽的“提示注入攻击”等滥用风险。他分享了国内首个生成式AI质检中心的测评实践,强调未来针对智能体的评测难度将呈指数级提升。测评不仅要关注AI说了什么,更要追踪其做了什么,以及异常恢复能力。陈敏刚呼吁加快建立涵盖自动化工具与数字沙盒的复合测评体系,以应对智能体时代的安全治理挑战。


图片


「建立中国特色刹车系统,保障AI高速安全发展」


第三环节由复旦大学马克思主义研究院助理研究员张润坤主持。除专家学者之外,来自企业等社会各界的代表也参与研讨,围绕人工智能治理中的现实问题与实践路径展开多方交流。


图片


中国科技新闻学会科技融媒体传播专业委员会执行主任旻宏对比了中美AI发展路径的差异,美国侧重底层模型能力的资本角逐与政治选票博弈,而中国受算力与合规要求影响,更侧重于向垂直行业的深度B端应用发展。他强调,AI企业在面临平台合规时,必须坚守“中国特色红线”,将意识形态安全等作为核心基准。企业内部需建立专业的风险辨别与反“投毒”机制,以保障AI生态的导向性与安全性。


图片


眸深智能联合创始人胡斐结合具身智能初创企业的发展现状,建议借鉴其他领域的差异化监管思路,推行动态的AI“分类分级”管理,同时呼吁引入金融领域的“沙盒监管”模式,为企业划定安全可控的创新边界。在沙盒内给予企业充分的试错空间,在边界外实施严格管控,以顶级的“刹车系统”保障AI产业的高速、安全发展。


图片


新华网未来研究院院长杨溟提出了极具冲击力的“心智主权”概念,警告成瘾性陪伴型智能体可能改变人类脑认知结构,诱发不同程度的心理精神障碍,主张以超学科与未来学视角,构建实验室“模拟性模型”进行AI社会压力测试。此外,他深度剖析了AI对传统岗位雇佣模式的消解,预警在缺乏强社会福利托底的背景下,AI引发的社会离散化、低欲望与家庭结构解体,可能对我国经济基本面与社会治理构成一定挑战。


图片


全球人工智能创新治理中心副秘书长、复旦大学发展研究院助理研究员辛艳艳则指出,AI时代的内容风险正逐步升级,不仅有算法偏见,还有针对弱势群体的“情感围猎”。由于AI生成内容高度去中心化,责任链条分散在数据、模型、提示词与分发多端,传统的网络内容治理手段已显得左支右绌。为此,必须建立跨平台的协同联防与全周期敏捷治理机制,并高度警惕小模型和暗网传播带来的监管盲区。


图片


上海交通大学马克思主义学院副教授张秀的发言题目为《论人工智能伦理治理中的增强型正义》。她针对当前AI治理依赖事后监管的“防御型正义”及其引发的人类认知退化等问题,创新性提出“增强型正义”新范式,主张AI技术应以“增强人类智能”和维护人类自主判断为核心目标,同时结合“智慧司法”项目的田野观察与“AI法官”思想实验,探讨将“增强型正义”前置嵌入AI模型设计的可行路径,为突破AI合法性困境提供了新视域。


图片


上海大学马克思主义学院副教授张青子矜以《技术悖论的中国解:绿色治理如何平衡增长极限与回弹效应》为题,指出西方左翼的“去增长”理论无法从根本上破解科林格里奇困境与杰文斯悖论。她提出以“新质生产力”作为破局的中国方案,依托前瞻性治理的制度优势与生产关系变革,超越西方“先破坏后治理”逻辑,实现产业生态化与生态产业化统一。最后,她也提醒需高度警惕AI算力基础设施高能耗可能引发的新型“杰文斯悖论”。


图片


清华大学马克思主义学院副教授刘伟兵论述了《人工智能如何实现共同富裕》,他指出,资本主义宣扬的“AI替代劳动即富裕”实则掩盖了普通劳动者的失业风险。他强调,AI作为生产力仅能解决财富创造的“富”,却无法单凭纯技术路径解决财富分配的“共”,“共”的本质在于所有制。探讨AI的社会影响绝不能陷入技术决定论,必须回归马克思主义政治经济学批判,在活劳动与资本内在界限的社会规律中深挖根源。


图片


复旦大学马克思主义学院博士研究生邝光耀发表了题为《柔性规制与公共向善:英国人工智能双规治理路径及其启示》的报告,揭示了英国在人工智能治理中坚持“支持创新”的柔性规制取向,一方面通过非立法性框架、行业自律与监管沙盒维持制度弹性;另一方面通过伦理嵌入、人权尽责与公众参与机制锚定“公共向善”的价值坐标。


图片


此次会议的成功举办,不仅为“人工智能伦理的中国之治研究”课题明确了推进脉络与研究抓手,更通过跨学科、跨界的深度对话,为破解“科林格里奇困境”与构建中国特色AI治理模式提供了丰富的理论资源与实践启示。课题组将以此次会议为契机,扎实推进理论攻关与经验研究,着力推出具有前瞻性、系统性的高质量学术与智库成果,为国家数字治理与哲学社会科学自主知识体系建设贡献复旦智慧。


原文链接:https://mp.weixin.qq.com/s/IE9vzmdj_5I7ApmjMLCLXA?scene=25&sessionid=#wechat_redirect