随着全球科技竞争白热化,各国监管机构正加速制定人工智能(AI)规则与框架,以确保技术安全应用并推动创新发展。当前,AI已深度融入金融、电信及政府运营等关键领域,成为经济与社会发展的核心驱动力。如何平衡创新激励与风险管控,已成为全球治理的核心议题。
欧盟通过《人工智能法案》持续巩固其作为全球AI治理先锋的地位。该法案采用基于风险的监管方法,并配套发布《通用人工智能(GPAI)实践准则》,强调与欧盟价值观一致、比例原则及面向未来性。最终版本预计于2025年5月公布,法案将于同年8月全面生效。这一进程不仅确立了欧洲在AI治理中的标准地位,更可能对全球监管体系产生深远影响。
特朗普总统上台后撤销拜登政府关于人工智能安全与伦理的行政命令,转而发布新行政指令,旨在降低创新障碍并强化国家安全。白宫此举被解读为将美国在AI领域的领导权置于首位。与此同时,美国版权局正评估AI生成内容的法律地位,明确人类作者身份仍是版权保护的基础。然而,政策与科技企业间的紧密联系引发公众对潜在利益冲突的担忧。
国际社会积极推动跨区域合作。英国与卡塔尔于2024年12月启动联合人工智能研究计划,由伦敦玛丽女王大学与哈马德·本·哈利法大学牵头,聚焦伦理框架构建与跨境治理协作。在亚洲,新加坡和香港相继发布针对金融行业AI应用的风险指南,要求提升透明度、加强人工监督与网络安全防护。这些区域性实践反映了全球在技术创新与公共利益间寻求共识的努力。
弗吉尼亚州成为公共治理数字化转型的先行者。自2022年起,该州通过引入代理人工智能(Agentic AI)工具,审查并优化监管流程。州长格伦·扬金于2025年1月签署行政命令授权使用该技术,目前已成功将监管要求减少26.8%。通过智能识别法规冗余与矛盾,弗吉尼亚州正探索现代化治理路径,同时保障决策透明度与问责机制。
尽管进展显著,全球AI监管仍面临挑战。英国科学、创新与技术部2025年1月发布的《国际人工智能安全报告》指出,需建立统一的科学认知以应对系统性风险。该报告汇集100多位国际专家意见,强调可靠设计、风险评估与持续研究的重要性,其成果将在巴黎人工智能行动峰会上为政策讨论提供依据。
总体来看,全球AI监管格局呈现创新、风险管理与地缘政治战略交织的复杂态势。欧盟在制度设计上保持领先,美国与中国则在治理方向上展开深层博弈。随着AI技术进一步渗透至公共与私营部门,制定兼具前瞻性与实操性的监管框架变得尤为紧迫。各国政府、企业与国际组织需深化协作,共同推动符合社会价值与全球安全的人工智能发展。
