位置: 首页 > 治理创新 > 理论创新 > 正文
首页

人工智能赋能国家治理现代化——AI治理的潜力、限度与未来

来源:中国社会科学报    编辑:王岩

 

随着以ChatGPT为代表的新一代强人工智能技术的爆发性发展和广泛应用,人类社会迈入以数据、算法和算力为核心要素的人工智能时代。回顾历史,“创造性破坏”的新科技革命浪潮每每带来生产力和生产关系、国家治理乃至世界格局的重大变迁。以大语言深度学习模型为基础、压倒性概率的直觉“涌现”为特征的生成式人工智能,展示出类人的心智能力和多元智能,得到各国政府的重视和应用,推动了国家治理的智能化转型——人工智能治理(以下简称“AI治理”)。同时,这也引发了对其风险威胁、道德伦理的忧虑。智能本是心理学的研究对象,智能治理则是技治政治学的新时代命题。人工智能既是客观存在,也是人为事实。通过AI促进良政善治,需要仔细考察人工智能系统与人类心理过程及国家治理过程之间的关系,阐明其在推进国家治理现代化上的潜力、限度与未来方向。具体而言,涉及以下方面。

第一,AI治理的认知和情感维度。认知心理学研究人类如何处理信息和作出决策,AI通过自动化数据分析和生成见解,减轻决策者在治理过程中面临的巨大信息障碍和认知负荷,提高决策质量和效率。例如,AI可以分析经济指标、社会趋势和环境数据,为决策者提供综合报告和预测模型。确认偏差、可得性启发等认知偏差会显著影响人类决策,AI通过提供客观的、大数据驱动的见解来缓解这些偏差。例如,预测性警务算法通过数据分析识别犯罪模式并提出预防措施,而非依赖主观判断。AI的情绪智能指的是机器识别、理解和回应人类情感的能力,这种能力在公共服务中得到应用。例如,虽然并不能取代人类关系的作用,但AI聊天机器人可以以更富同理心和个性化的方式与公民互动,即时回应其疑虑和棘手的问题,提供帮助和支持,尤其对那些无人可求助的人而言;在这种人机交互中,公民通过拟人化与机器人可能建立某种情感联结。

第二,AI在政策过程和公共服务中的治理价值。AI可以分析大量数据和模拟潜在政策结果,协助决策者评估权衡,制定基于经验证据的政策。在政策实施上,AI可以推动人机协同和组织间协同,降低行政负担,提高政务运行的效率和效果。自动化系统实时监控政策实施,识别偏离的情况并建议纠正措施,提高政府干预的敏捷性。例如,AI跟踪基础设施项目的进展,检测延误或成本超支,并建议调整以确保按时和在预算内完成。AI还可以在公共政策评价和反馈过程中发挥关键作用。通过持续监控关键绩效指标和收集公民反馈,帮助及时调整和改进政策。此外,AI可以帮助识别意想不到的后果,并提供减轻负面影响的建议。AI在公共服务诸领域的应用显著提升了治理效能。例如,AI在公共医疗保健领域可以提供疾病爆发的预测分析、个性化诊断和治疗计划以及高效的资源分配;“一网统管”的智能化政府服务平台和智慧城市,通过简化流程、快速对接并确保符合条件的个人及时获得帮助,增强了公共服务的交付。

第三,AI治理的政治心理学。政治心理学研究心理因素如何影响政治行为和决策。AI在治理中的引入可以通过提供新工具和洞见来重塑这些过程。然而,这也引发了AI在多大程度上应影响政治决策以及AI可能被用来传播虚假信息和操纵公众舆论的担忧。例如,AI驱动的分析可以帮助政治家了解选民行为和偏好,但也可能被用来微定向政治信息并影响选举。AI在治理中的使用也对政治极化有影响,特别是在社交媒体中使用的AI算法可能会创建回音室并加强现有偏见,导致政治极化增加。AI可能并不价值中立或意识形态中立,相比基于性别或种族的算法偏见,基于政治倾向的算法偏见也日益引起关注。AI治理的关键环节在于公众感知和接受。政治心理学可以帮助理解影响公众对AI治理态度的因素,包括数字素养、对技术的信任、感知到的益处和风险,以及文化态度。

第四,AI治理的局限与挑战。尽管AI具有巨大潜力,但仍存在技术局限。目前,基于概率预测的生成式AI在理解上下文和细微差别、逻辑推理等方面可能存在困难,如“机器幻觉”“逆转诅咒”等。此外,AI系统需要大量数据才能有效运行,数据稀缺或数据质量差可能限制其在治理过程中的有用性,深层伪造、虚假和错误信息、偏好伪装等无疑加剧了这一问题。AI在治理中的部署也可能带来社会和伦理风险,包括隐私问题、潜在的监控增加以及加剧社会偏见和不平等。AI系统的偏见程度取决于其训练数据的偏见程度,偏见和公平已成为治理中应用AI的紧迫伦理问题。AI黑箱算法的不透明和难以解释性可能削弱公众信任并带来问责制的挑战。最后,在治理中整合AI可能导致如“机器换人”等的负面冲击,遭到如政府官员、员工和公众等各种利益相关者的厌恶与抵制,这要求有效的变革管理策略和前瞻性安排,包括清晰的沟通、培训和支持,以及对受损群体的补偿性措施。

第五,AI治理的未来方向。具体可包括制定AI伦理框架、促进公众参与和教育、促进国际合作、持续监测与评估、建立跨学科方法、确保包容性发展六个方面。为了在利用AI潜力的同时减轻其风险,政府应制定健全的AI伦理框架,确保AI系统的负责任和伦理使用,包括建立明确的数据收集和使用指南,设置情景化的伦理脚本,实施偏见检测与缓解措施,确保AI系统的透明和价值对齐。公众参与和教育对于AI在治理中的成功整合至关重要;政府应积极将公民纳入AI政策讨论,使利益相关者知晓AI的益处和风险,并通过教育项目提高公民数字素养、伦理考量的意识和批判性思维技能,促进公众对AI的信任和支持,帮助公民应对AI技术的复杂性。鉴于AI技术的全球性,国际合作对于应对AI在治理中的挑战和机遇至关重要;政府应共同制定AI部署的共同标准和最佳实践,分享知识和经验,并在研究和开发方面合作。AI在治理中的部署应伴随着持续的监测和评估,以确保系统按预期运行并实现其目标,这包括定期评估AI对决策过程、公共服务和社会结果的影响,建立反馈机制、收集利益相关者的意见并进行必要调整,以提高AI系统的有效性和公平性。应对AI在治理中的复杂性需要提倡跨学科方法,吸收计算机科学、心理学、法律、伦理和公共政策等相关领域的见解,促进政府与研究机构、私营部门的合作,利用集体智慧,制定全面和平衡的AI策略。为防止AI加剧社会不平等,须实施政策确保AI研究、开发和部署中的多样性和包容性,并考虑到社会各个群体尤其普通人的需求,这包括提供平等获得AI益处的机会,解决数字鸿沟,并确保AI系统对所有人都可访问和易用,无论其社会经济背景如何。

总之,人工智能在国家治理现代化中展现出巨大潜力,它可以提高决策效率、增强公共服务、促进公民参与等,然而AI的治理应用也带来了许多问题,包括偏见、公平性、透明度和问责制等。强有力的法律伦理框架、技术基础设施和公民信任及能力对成功实施AI治理至关重要。我们应更充分、深入地理解AI治理的潜力和限度,制定负责任和以人为本的AI治理策略,通过开放参与和互利共享,实现以人工智能促进良政善治的国家治理目标。

 

友情链接