无牙之虎?全球AI伦理“软法”治理的规范生成、遵从动力与效力局限
核心正文
面对人工智能技术的迅猛发展与跨国界应用带来的巨大伦理与安全挑战,以《欧盟人工智能法案》等为代表的“硬法”监管正在成型,但全球层面更为主流和活跃的治理形式是各类“软法”:包括企业自发制定的伦理准则(如谷歌、微软的AI原则)、多利益相关方论坛发布的倡议与框架(如G20人工智能原则、OECD人工智能建议书)、以及国际标准组织制定的技术标准(如IEEE的伦理对齐标准)。这些软法不具有国际条约或国内法意义上的强制约束力,却构成了当前全球AI治理秩序的基础性规范网络。
软法之所以盛行,源于其独特的优势。首先,适应性与敏捷性。相较于立法漫长的周期,软法能快速回应技术迭代的伦理争议(如深度伪造、生成式AI滥用),通过行业共识或最佳实践指南的形式,为技术创新提供及时的规范性指引。其次,共识构建功能。在各国监管立场差异巨大、硬法谈判僵持不下的领域(如AI军事化、通用人工智能监管),软法通过反复讨论和原则宣示,有助于凝聚最低限度的全球共识(如人权保护、安全可控、公平透明),为未来硬法谈判奠定基础。最后,塑造行业规范与声誉机制。领先企业和联盟制定的伦理准则,虽无法律强制力,却能通过市场压力、投资者关注、消费者选择和人才竞争,形成事实上的行业标准。违背这些准则可能导致声誉受损、市场抵制,从而产生实际约束。
然而,软法治理的效力具有显著的局限性,常被诟病为“无牙之虎”。其核心缺陷在于遵从的自愿性与选择性。企业可能将伦理准则视为公关工具,在实际研发与部署中优先考虑商业利益,出现“伦理漂绿”现象。缺乏独立的审计、透明的评估和有效的争议解决机制,使得违规行为难以被发现和纠正。软法的碎片化也可能导致“规则采购”,即企业选择遵从最宽松的标准。此外,软法主要由技术发达国家及其领军企业主导,可能未能充分反映全球南方国家的关切与发展需求,存在“治理赤字”与公正性质疑。
因此,未来的全球AI治理必然是“软硬兼施、多层联动”的混合模式。软法将继续在快速响应、共识塑造和前沿探索方面发挥关键作用。但其效力提升有赖于:推动软法的“硬化”,如将核心原则纳入采购合同、投资协议或行业认证;建立与软法配套的监测、认证与透明度机制;促进软法制定过程的包容性与多元参与。同时,在国家及区域层面,需要硬法为底线性要求(如安全、人权)设定强制性框架,并为软法的实施提供法律支持和责任背景,形成软法先行探索、硬法夯实底线的协同治理格局。
本文要点
AI伦理软法以其敏捷性、共识构建和规范塑造能力,成为当前全球治理的主流形式,但受限于自愿遵从和碎片化,效力存在短板。
企业伦理准则通过市场、声誉等机制产生事实约束力,但存在“伦理漂绿”和选择性遵从的风险,需配套透明度与评估机制。
有效的全球AI治理需构建“软硬法协同”的混合模式:软法负责前沿探索与共识引领,硬法则设定底线框架并提供强制力保障,二者相互补充、动态演进。
拓展阅读
Cath, C., & Floridi, L., “The Design, Development, and Governance of AI Ethics Initiatives,” in The Oxford Handbook of Ethics of AI, Oxford University Press, 2020.
贾开,《人工智能全球治理:从“软法”到“硬法”的演进路径探析》,《世界经济与政治》,2022年第7期。
IEEE,《人工智能设计的伦理准则(第2版)》,IEEE标准协会,2024年。
