英国政府宣布将修订其《犯罪与警务法案》,以授权科技公司和儿童安全慈善机构主动测试人工智能工具,确保这些工具无法生成儿童性虐待图像(CSAM),此举旨在从源头上遏制日益增长的AI生成非法内容。
英国立法修正案授权第三方测试AI模型
在最近的一个周三,英国政府通过科技大臣利兹·肯德尔(Liz Kendall)宣布了一项针对《犯罪与警务法案》的修正案。根据这项修正案,未来将允许“授权测试者”,包括科技公司和儿童安全慈善机构,在人工智能模型发布之前对其进行主动测试。此举的核心目标是确保AI系统无法生成儿童性虐待图像(CSAM)。肯德尔大臣表示,这些措施将“确保AI系统能够在源头得到安全保障”。
除了CSAM,政府提出的法律修改还将赋能AI开发者和慈善机构,以确保AI模型在处理极端色情内容和未经同意的私密图像方面也具备足够的防护措施。这一系列举措是英国政府为应对人工智能技术滥用所带来的挑战,特别是AI生成非法内容激增问题的重要一步。
AI相关儿童性虐待图像报告数量激增
英国政府此次行动的背景是,互联网观察基金会(Internet Watch Foundation, IWF),一家致力于打击在线儿童性虐待内容的英国慈善机构,报告称过去一年中与AI相关的儿童性虐待图像报告数量翻了一番。IWF的数据显示,在2025年1月至10月期间,该机构移除了426份报告材料,而2024年同期这一数字为199份。这一显著增长凸显了问题的严重性及其紧迫性。
IWF指出,人工智能工具使得犯罪分子能够“只需点击几下就能再次伤害幸存者,让犯罪分子有能力制作出数量可能无限、复杂且逼真的儿童性虐待材料”。这种易于制作和传播的特性,使得AI技术在犯罪分子手中成为一个强大的新工具,对儿童安全构成前所未有的威胁。
英国成为打击AI生成非法内容先驱
早在2025年早些时候,英国内政部(Home Office)就曾宣布,英国将成为世界上第一个将拥有、创建或分发旨在创建儿童性虐待内容的AI工具定为非法行为的国家。这一立法举措与此次授权第三方测试的修正案共同构成了英国在打击AI生成非法内容方面的全面策略。通过将此类AI工具的开发和传播定为非法,英国政府旨在从根本上切断非法内容的来源。
然而,关于AI工具测试的强制性,不同来源说法不一。虽然政府提出的措施允许进行测试,但包括英国国家防止虐待儿童协会(NSPCC)在内的一些儿童安全活动家认为,这不应是可选的,而应是AI开发者在发布其模型之前必须履行的强制性义务。他们认为,只有强制性测试才能确保所有AI模型都达到必要的安全标准,从而最大限度地保护儿童。
全球AI监管面临的挑战与机遇
英国的这一系列举措,无疑在全球范围内为AI监管树立了一个新的标杆。随着人工智能技术的飞速发展,其潜在的负面影响,特别是生成有害和非法内容的能力,已成为国际社会普遍关注的焦点。各国政府和国际组织都在探索如何有效监管AI,以平衡技术创新与社会安全。
授权第三方进行测试,是一种将监管责任部分下放给行业和非营利组织的新模式,旨在利用外部专业知识和资源来增强监管的效率和覆盖面。这种模式的成功与否,将取决于授权测试者的资质、测试标准的严格性以及对不合规行为的惩罚机制。
从更广阔的视角来看,英国的行动反映了全球对AI伦理和安全的日益重视。人工智能的快速迭代和广泛应用,使得其在社会各个层面都产生了深远影响。如何确保AI技术在造福人类的同时,不被滥用以制造伤害,是当前国际社会面临的共同挑战。本国(中国)在人工智能发展方面也投入巨大,如何借鉴国际经验,构建符合本国国情且高效的AI监管框架,将是未来需要深入探讨的议题。
此次英国的立法修正案,不仅是对AI生成CSAM问题的一次直接回应,更是对未来AI监管模式的一次探索。它提出了一个关键问题:在AI技术快速演进的背景下,如何才能建立起既能促进创新,又能有效防范风险的监管体系。未来的挑战在于,如何确保这些措施能够跟上AI技术发展的步伐,并有效应对不断变化的威胁。
参考来源
- UK seeking to curb AI child sex abuse imagery with tougher testing — BBC News(2025-11-12):查看原文

