欧盟《人工智能法案》(AI Act)正稳步推进落地,核心条款将于2026年8月2日全面生效,目前已进入合规准备关键阶段,为欧盟境内AI应用划定安全与合规底线。
该法案以“风险分级监管”为核心原则,构建了全生命周期监管体系,明确禁止社会评分、公共场所实时生物识别等不可接受风险AI应用,这类禁止条款已于2025年2月起率先强制执行。法案将AI系统分为不同风险等级,对医疗、教育、关键基础设施等领域的高风险AI系统提出严格要求,包括建立风险管理体系、完善技术文档、落实人工监督、开展合规评估等,确保其安全性与可追溯性。针对生成式AI,法案明确要求提供商以机器可读格式标注AI生成或篡改内容,部署者需对涉及公共利益的深度伪造内容和AI文本进行清晰标注。目前,欧盟委员会已发布该类内容标注的行为准则草案,预计2026年6月定稿,8月与核心条款同步适用。此外,通用AI模型需履行透明度义务,发布训练数据摘要并遵守欧盟版权法,高算力模型还需额外落实系统性风险防控措施。当前,欧盟正推进高风险AI系统认定指南修订,计划3-4月发布终版,并同步优化合规过渡期安排,各成员国需在5月31日前建成并运营AI监管沙盒,为企业合规提供测试空间,助力法案平稳落地。
来源:江苏省技术性贸易措施信息平台
您现在的位置: 