全球AI审查政策会走向统一吗?

14 人参与

咖啡店的收银机里,刚刚刷卡的顾客还在讨论昨晚的AI生成新闻,而隔壁的学生宿舍里,几位同学正为一篇被AI写出来的论文争论到底该不该注明来源。看似毫不相干的两件事,却都把我们拉回同一个问题:各国对AI内容的审查到底会不会走向同一套规则?

不同地区的审查路径各自为营

欧盟已经把《AI 法案》写进了立法日程,要求高风险模型在上线前接受第三方审计,甚至对生成式内容标注来源。美国则更像是一个大花园,几大科技公司自行制定“安全指南”,而联邦层面的强制性法规仍在酝酿。中国的《生成式人工智能服务管理暂行办法》则明确要求平台对违法内容进行“实时过滤”,并对违规者处以高额罚款。印度最近也提出了《数字信任法》草案,试图在隐私保护和创新之间找到平衡。

统一的障碍不只是技术

说到统一,光是语言差异就足够让人头疼。法律体系的根基在于各国的历史、文化与政治结构——美国的言论自由传统、欧盟的隐私至上、以及中国的网络治理理念,都像是不同的拼图块,硬要拼成一块,缝隙总会露出。再看数据本身,2023 年全球 AI 训练数据总量突破 500 EB,其中仅欧盟地区占比不到 15%,而美国与亚洲占据了其余的大头。监管者若要统一标准,就必须面对数据流动不均、技术供给差距等现实难题。

或许的协同方向是“最小公约数”

但并不代表完全没有合作的空间。去年在日内瓦举行的《全球AI治理峰会》上,十余国的监管代表共同签署了《透明度承诺》,约定所有公开的生成式模型都要提供可审计的日志。类似的“最小公约数”——比如对深度伪造的水印要求、对未成年人有害内容的过滤阈值——可能成为未来跨国合作的起点。想象一下,如果每个平台都贴上统一的“AI 生成标记”,用户在浏览时自然会多一层判断的防线。

“监管的目标不是压制创新,而是让技术在可预见的风险框架内自由呼吸。”——一位专注AI政策的学者如是说。

所以,当我们在讨论“统一”时,或许应该先问自己:我们想要的统一到底是更严格的同质化,还是在关键风险上达成共识的协同?这场全球性的“审查游戏”,到底会在何时换上新棋子,仍有待观察。

参与讨论

14 条评论