姚旭 邱砺:人工智能技术发展和落地应用——社会治理风险和应对

作者:姚旭 邱砺 发布时间:2025-05-18 来源:《劳动报》2025年5月16日 12思想版面+收藏本文

12_00.png


随着人工智能在教育、医疗、养老、城市治理等多领域的广泛应用、超速发展,现在到了一个十分关键的阶段,除了确保技术领先,还要高度重视技术发展带来的就业结构失衡、收入分配扩大及伦理道德挑战等社会风险,从完善社会保障、技术风险治理、伦理法律平衡等多维度入手,构建一个更加稳健、公平且可持续的智能社会发展框架,以此应对人工智能对社会治理的挑战。


人工智能应用落后带来的三重挑战

就业结构风险。一是人工智能及智能机器人的自动化替代将带来劳动力市场的结构性重组,传统劳动力岗位面临转型与调整压力。二是人工智能加速了产业自动化进程,促使企业在追求降本增效的考虑下,减少对全职员工的需求,包括文职、翻译、客服、财会、人力资源等岗位受冲击较明显。三是无人驾驶汽车投入市场引发全球从业者反弹。近期百度旗下自动驾驶出行服务平台“萝卜快跑”在武汉投放引发舆论激烈讨论,“抢饭碗”成为社会各界担心的重点问题。

 社会治理难题。一是技术安全和法律监管错位。相关企业普遍称现有自动驾驶技术安全性能远高于人类驾驶员,但人类驾驶员在遇到交通事故时的责任划分是清晰的,自动驾驶发生交通事故的责任划分则不然。比如,在“萝卜快跑”碰撞事件中,无人驾驶网约车背后遵循“红灯停、绿灯停”的绝对设定与道路交通实际参与者产生冲突后,如何界定责任归属极大考验政府的治理能力,也折射出现有自动驾驶监管法律缺位的困境。二是数据隐私泄露风险。AI应用的核心支撑在于一整套相关数据的收集、分析、使用与共享,这不可避免地涉及到AI开发者、使用者对于普通用户信息、机构数据信息的收集和处理作业。

 伦理道德挑战。一是算法偏见与数据歧视风险。比如,在“智慧医疗”领域,医生对特定群体(如艾滋病携带者等传染病感染者)开展诊疗时,根据人工智能应用提供的特定群体生活习惯、行为趋势等隐私出具歧视性的诊疗方案,并进一步将特定群体作为对象开展社会实验,可能导致特定群体的社会性评价下降,甚至导致社会性“死亡”。二是人机关系界限与情感伦理问题。随着人工智能的发展,机器可能在某种程度上拥有自主意识和情感,如何界定人与机器之间的道德界限成为一个待解决的伦理挑战。

“信息污染”可能带来的风险隐患

就业结构失衡可能产生社会冲击。一是人工智能应用快速落地,将进一步挑战部分新就业形态当前在整体就业市场中的兜底功能。“萝卜快跑”事件引发热议的焦点在于其对网约车司机这一巨大就业群体的替代。据全国总工会第九次全国职工队伍状况调查显示,全国新就业形态劳动者共有8400万,以货车司机、网约车司机、快递员、外卖配送员为主。相关岗位已成为就业“蓄水池”,不仅吸纳了农业户籍的男性青壮年,也成为城镇中年失业群体的重要再就业岗位。在当前就业形势依然严峻的当下,由于技能匹配度、年龄和心态等问题,被替代者对再就业前景不乐观。二是就业市场的零工化趋势将日益增强,随着企业对灵活用工形式的需求上涨,人工智能技术的快速落地应用或使劳资双方的不平等地位进一步加剧,社会劳动力过度供给,扩大资方的强势地位,使被替代的劳动者在收入和社会保障权益等方面将缺乏议价能力。

 社会治理失衡对政府治理能力产生冲击。一是人工智能技术应用催生社会和公众需求,对治理能力形成了压力。在法律层面,如何判断人工智能机器生成物的权利主体地位、在刑事领域合理判罚利用人工智能开展新型犯罪活动也成为法治层面的一大难题。二是数据泄露和安全风险对交通体系产生威胁。比如,智能汽车上往往都装有摄像头、激光雷达等高精度感知硬件,在车辆开启自动驾驶功能后,这些设备就会对环境信息进行探测并记录,而这其中存在未经授权访问敏感数据的风险,包括道路环境数据、行人数据等,一旦泄露将在一定程度上威胁国家安全、侵害个人权益。

 伦理道德失衡对社会公平与稳定产生冲击。一是人工智能的决策取决于训练数据质量本身,但算法偏见与数据歧视容易诱发群体偏见,同时算法模型可能会过度简化复杂的社会现象,无法将不同群体的差异性和多样性纳入其中。例如在招聘过程中,已有企业使用人工智能系统进行简历筛选、智能推荐与匹配等流程,但由于训练数据中可能存在性别、地域、学历、学校层次偏见,导致算法推荐结果可能与公平就业原则违背,使某些群体遭遇不平等待遇。二是人工智能在某些领域的优越性会诱发人类对自身价值的怀疑,进一步影响人际关系,造成社会疏离。例如智能客服系统在各行各业的广泛应用虽然能够提供高效服务,但也会让人们越来越习惯于通过机器解决问题,导致人际交往的减少。加上社交媒体算法推荐的逐渐深入,技术依赖和个体孤独感将会成为一种时代症候,影响社会团结。

对策建议:监管政策、技术反制与舆论应对

人工智能的快速发展带来了诸多安全风险挑战,技术、算法和模型本身的安全是现阶段的关注重点,但确保人工智能的安全不仅是技术问题,更是关乎全球治理和社会伦理的重大课题。应加快社会治理体系架构的重构,强化对人工智能应用产生的冲击应对,形成系统、前瞻和动态的反应机制,平衡人工智能领域的发展和安全问题。

 建立适应智能社会新发展阶段的社会保障体系。一是完善灵活用工形式的劳动者保障机制。二是加快推进失业保险制度改革,以化解人工智能对劳动力市场带来的风险。比如,借鉴北欧国家劳动力市场政策,规定失业者在享有失业保障福利的规定时间内参与政府部门提供的职业技能培训,帮助其提升就业能力,分担劳动者的失业风险,同时保持劳动力市场的流动性和活力。三是推动产业工人队伍建设改革,帮助劳动者增强竞争力。当前我国技能劳动者数量超过2亿,但是与加快形成新质生产力的要求相比,技能人才总量不足、结构不合理等问题仍然较为突出,因此需要持续推进产业工人队伍建设改革,尤其是中青年产业工人对前沿技术的应用,保障其在未来时间内仍然拥有再就业的职业技能,免遭失业风险。

构建全流程、持续性技术风险治理体系。人工智能应用落地,其安全风险呈现突发性与不确定性的特点,因此需要通过“持续性风险管理”路径,从前端、中端和后端三方面明确风险性质,实现人工智能应用落地从被动安全转变为主动安全。因此建议:一是前端,需要识别并管理由人工智能系统引起的直接和间接风险,包括设计和开发选择导致的系统失败与现实脱节。二是中端,当发生突发风险情况时,人工智能开发者须采取快速、高效的应急方案,最大程度确保用户安全。三是后端,政府应当针对个案风险治理情况,开展治理“复盘”,运用数据权、透明性原则,规制人工智能算法的难题,并通过数据审计和监管确保人工智能数据处理的全程监督。

 适度监管,强调合作治理,确保权利保护与科技创新之间的平衡。人工智能应用落地的风险治理中涉及多元主体,政府应强化人工智能合作治理中的引导和监督作用,防范降低技术、伦理、法律和社会风险。因此建议:一是政府自身应做好规则制定和执行引导。以政策供给明确人工智能法律主体以及相关权利、义务和责任,敦促人工智能开发者、使用者遵守法律法规和伦理规范。二是相关部门应监督人工智能应用平台和企业压实主体责任。促使平台严格履行防范算法风险的义务,不断调整信息技术系统,制定个性化的内部算法风险管理流程,鼓励平台和第三方力量紧密协作,共同探索算法风险分析和控制技术应用。三是面向普通公众做好舆论引导。

 推动不同层级的教育改革以适应人工智能发展需要。因此建议:一是在基础教育阶段,引入人工智能课程,培养学生的编程思维、数据分析能力和创新思维,推动多元化评价体系,共享优质资源,避免人工智能技术引发又一轮教育资源集中以及不平等现象的集中出现。二是在职业教育阶段,及时对接产业需求,调整专业结构,紧密围绕现代化产业体系高端化、智能化、绿色化需要,为劳动力市场储备高技能人才。三是在高等教育阶段,借鉴欧美高校把创新创业教育融入工程教育的实践经验,在“AI+新工科”建设中,融入创新创业教育,将创业意识和创造能力作为人工智能时代“新工科”人才培养的重要考量因素,以培养具有技术创新能力的创业者、企业家或商业领袖。

 (本文作者:姚旭,复旦大学发展研究院青年副研究员、上海数据研究院特聘研究员;邱砺,复旦大学国际关系与公共事务学院硕士研究生。)