欧盟人工智能法案合规指南:系统风险分类与管理实践框架
提供基于欧盟人工智能法案风险金字塔的人工智能系统分类实用框架,内含决策树流程、文档模板与技术合规检查清单,帮助应对 2025 年 2 月已生效的禁止性实践规定。
本指南适用人群
- 目标读者:AI 产品经理、合规官、企业架构师以及在欧盟市场部署 AI 系统或服务欧盟客户的开发者
- 前置要求:对 AI 系统有基本了解,熟悉监管合规概念
- 预计时间:完成完整分类和初步合规规划需 45-60 分钟
概述
本指南提供一套循序渐进的框架,用于按照欧盟人工智能法案(EU AI Act)的风险金字塔对 AI 系统进行分类,并实施技术合规措施。你将学到:
- 如何使用决策树将任意 AI 系统归类到四个风险等级之一
- 哪些 AI 实践已被禁止(自 2025 年 2 月 2 日起可执行)
- 高风险系统的技术文档要求
- 人工监督实施,包括强制性的”停止按钮”要求
- 合格评定路径和基于时间线的合规规划
欧盟人工智能法案建立了基于风险的监管框架,执行截止日期从 2025 年 2 月延续至 2027 年 8 月。在欧盟市场部署 AI 系统的组织如违反禁止性实践规定,面临最高 3500 万欧元或全球年营业额 7% 的罚款。
关键事实
- 适用对象:欧盟成员国、在欧盟市场部署 AI 系统的组织、全球 AI 提供商和部署者
- 法规内容:法规 (EU) 2024/1689 建立四层风险分类体系,违规罚款最高达 3500 万欧元或营业额的 7%
- 时间节点:禁止性实践自 2025 年 2 月 2 日起可执行;高风险系统截止日期为 2026 年 8 月 2 日
- 影响范围:人力资源技术、教育科技、人脸识别、医疗器械、车辆、就业筛选、执法 AI
步骤 1:使用决策树确定风险分类
欧盟人工智能法案采用四层风险金字塔。分类决定你的合规义务,从完全禁止到自愿最佳实践。
四个风险等级
| 风险等级 | 执行状态 | 核心要求 | 截止日期 |
|---|---|---|---|
| 禁止 | 刑事/行政处罚 | 完全禁止 | 2025 年 2 月 2 日(已可执行) |
| 高风险 | 需合格评定 | 全面遵守第 9-15 条 | 2026 年 8 月 2 日 |
| 透明度风险 | 披露义务 | 用户通知要求 | 2025 年 8 月 2 日 |
| 最小风险 | 自愿行为准则 | 鼓励最佳实践 | 无截止日期 |
分类决策树
使用此决策流程对你的 AI 系统进行分类:
开始:你的 AI 系统的主要功能是什么?
步骤 1:禁止性实践检查
=========================================================
你的系统是否执行以下任一操作?
- 在工作场所或教育环境中推断情绪
- 通过无针对性抓取创建人脸识别数据库
- 实施社会信用评分并造成不利对待
- 仅从画像预测犯罪风险
- 通过生物特征按种族/政治/宗教/取向对人分类
- 使用阈下技术扭曲超出意识的行为
- 利用弱点(年龄、残疾、社会经济地位)
- 在公共场所进行实时生物特征识别(有限例外)
是 -> 停止。分类:禁止
系统不得投放市场或投入使用。
否 -> 进入步骤 2
步骤 2:附录 III 高风险检查
=========================================================
你的系统是否列在附录 III 中?
- 生物特征识别和分类
- 关键基础设施管理
- 教育和职业培训
- 就业、工人管理、自营职业
- 获得基本服务(信贷、保险、福利)
- 执法
- 移民、庇护、边境管制
- 司法和民主程序管理
否 -> 进入步骤 3
是 -> 检查豁免条件:
你的系统是否:
A) 执行狭义程序性任务?
B) 改善人类活动的结果?
C) 检测决策模式而不替代人类?
D) 执行准备性评估任务?
且:不执行画像分析?
所有条件满足 -> 分类:非高风险
记录豁免评估。
任一条件不满足 -> 分类:高风险
进入合格评定。
步骤 3:附录 I 产品安全检查
=========================================================
你的 AI 系统是否是以下法规覆盖产品的安全组件:
- 机械法规
- 医疗器械法规
- 无线电设备指令
- 玩具安全指令
- 电梯指令
- 附录 I 中列出的其他行业法规
否 -> 进入步骤 4
是 -> 产品是否需要第三方合格评定?
是 -> 分类:高风险(产品相关)
通过行业法规进行合格评定。
否 -> 进入步骤 4
步骤 4:透明度风险检查
=========================================================
你的系统是否:
- 直接与人交互(聊天机器人、语音助手)?
- 生成合成内容(图像、音频、视频、文本)?
- 执行情绪识别(工作场所/教育之外)?
- 执行生物特征分类?
- 创建深度伪造?
是 -> 分类:透明度风险
适用第 50 条的披露要求。
否 -> 分类:最小风险
可使用自愿行为准则。
结束
需避免的常见分类错误
| 错误 | 纠正 |
|---|---|
| 假设所有生物特征系统都被禁止 | 只有特定实践被禁止(无针对性面部抓取、工作场所/教育中的情绪识别)。许多生物特征系统是高风险,而非禁止。 |
| 不检查豁免就过度归类为高风险 | 附录 III 系统如果满足豁免条件可申请非高风险身份。记录你的评估。 |
| 错过 2025 年 2 月截止日期 | 第 5 条禁止性实践已可执行。受影响系统的组织必须立即停止运营。 |
步骤 2:识别禁止性实践(已可执行)
欧盟人工智能法案的禁止性实践已于 2025 年 2 月 2 日 生效。目前使用这些系统的组织面临立即执行的风险。
禁止性 AI 实践完整列表
1. 工作场所和教育中的情绪识别
被禁止内容:在就业和教育环境中从面部表情、声音模式或其他生物特征信号推断情绪的 AI 系统。
技术范围:
- 基于情绪反应的候选人筛选
- 通过情感分析监控员工参与度
- 课堂中学生注意力或情绪追踪
- 基于情绪指标的绩效评估
例外:医疗或安全目的(例如检测驾驶员疲劳、经同意的治疗应用)。
受影响行业:人力资源技术平台、教育科技应用、工作场所分析工具。
2. 无针对性面部抓取
被禁止内容:在没有特定目标的情况下,从互联网或闭路电视画面自动收集面部图像,用于创建或扩展人脸识别数据库。
技术范围:
- 抓取社交媒体个人资料图像
- 无特定调查目的收集闭路电视画面
- 从公共来源批量收集生物特征数据
受影响行业:人脸识别服务提供商、安防技术供应商、身份验证平台。
3. 社会信用评分系统
被禁止内容:根据社会行为或人格特征随时间对人员分类,导致在不相关情境中造成不利对待的 AI 系统。
技术范围:
- 跨情境聚合行为的评分系统
- 基于不相关数据分数的对待决策
- 从社交媒体活动创建可信度评级的系统
受影响行业:信用评分扩展、保险风险评估、租户筛选。
4. 犯罪风险预测性执法
被禁止内容:仅从画像或人格特征预测犯罪风险,没有支持性事实证据的 AI 系统。
技术范围:
- 仅基于人口统计或行为特征档案的风险评估
- 没有具体犯罪指标预测模型
- 没有司法监督的基于画像威胁评分
5. 基于受保护特征的生物特征分类
被禁止内容:通过生物特征数据对人分类以推断种族、政治观点、工会成员身份、宗教信仰、性取向的 AI 系统。
例外:执法部门对合法获取的数据集进行过滤。
6. 公共场所实时远程生物特征识别
被禁止内容:在公共场所为执法目的进行实时生物特征识别。
有限例外需要:
- 司法授权或同等授权
- 严格必要性:失踪人员搜寻、恐怖威胁预防、严重犯罪调查(4 年以上监禁刑期)
- 基本权利影响评估
- 欧盟数据库注册
禁止性实践立即行动清单
- 审计所有 AI 系统在人力资源/教育环境中的情绪识别能力
- 审查面部抓取活动的数据收集实践
- 评估客户/员工评估系统中的社会信用评分机制
- 记录任何基于受保护特征的生物特征分类
- 停止禁止的系统或修改为合规用例
步骤 3:评估高风险分类和豁免选项
如果你的系统未被禁止但属于附录 III 类别,你必须确定高风险要求是否适用或豁免条件是否满足。
附录 III 高风险类别
| 类别 | 包含系统 | 豁免可能? |
|---|---|---|
| 生物特征识别 | 远程生物特征识别、生物特征分类 | 有限 - 画像分析始终高风险 |
| 关键基础设施 | 能源、交通、供水管理系统 | 是 - 如果是狭义程序性任务 |
| 教育 | 学生录取、学习成果评估、监考 | 是 - 如果改善人类结果 |
| 就业 | 招聘筛选、任务分配、绩效评估 | 是 - 如果仅是模式检测 |
| 基本服务 | 信用度、保险定价、福利资格 | 有限 - 画像分析始终高风险 |
| 执法 | 测谎、情绪评估、风险评估、DNA 分析 | 否 |
| 移民 | 边境管制、签证处理、庇护评估 | 有限 |
| 司法 | 法院裁决、判例分析、证据评估 | 否 - 司法独立 |
豁免评估框架
对于附录 III 系统,在申请非高风险身份前记录此评估:
豁免评估记录
================================
系统名称:[你的 AI 系统]
附录 III 类别:[例如:就业 - 第 6(2) 条]
评估日期:[YYYY-MM-DD]
评估人:[姓名、职位]
豁免条件检查:
[ ] 条件 A:狭义程序性任务
系统是否执行狭义程序性任务而不
实质性影响决策结果?
证据:[描述任务范围、决策影响级别]
[ ] 条件 B:改善人类活动结果
系统是否仅改善以前没有 AI 的
人类活动结果?
证据:[描述人类基线、改善指标]
[ ] 条件 C:检测模式而不替代决策
系统是否检测决策模式或提供辅助
信息而不替代人类决策?
证据:[描述决策流程、人类在最终决策中的角色]
[ ] 条件 D:准备性评估任务
系统是否执行与附录 III 用例相关
的评估准备任务?
证据:[描述准备性与最终评估角色]
关键检查:
[ ] 画像分析状态:系统是否执行画像分析?
是 -> 豁免不适用。系统为高风险。
否 -> 如果满足条件 A-D 中任一条,豁免可能适用。
结论:
[ ] 非高风险:豁免条件满足
记录并保留评估记录。
[ ] 高风险:豁免不适用
进入合格评定要求。
画像分析何时覆盖豁免
画像分析定义为自动处理个人数据以评估某些个人方面。如果你的附录 III 系统执行画像分析,豁免不可用,无论其他条件如何。
执行画像分析的系统:
- 用于招聘决策的行为评分
- 用于学生安置的学习风格分类
- 基于个人特征的风险评估
- 从行为数据评估信用度
步骤 4:实施高风险系统的技术文档
高风险 AI 系统在投放市场前需要全面的技术文档。此文档必须在系统生命周期内持续维护。
附录 IV 文档模板
创建包含以下要素的技术文档文件:
1. 系统总体描述
## 系统概述
### 提供商信息
- 公司名称:[法人实体名称]
- 地址:[注册地址]
- 联系方式:[合规联系人]
### 系统身份
- 系统名称:[产品/服务名称]
- 版本:[当前版本号]
- 预期用途:[具体用例描述]
- 目标用户:[谁将操作系统]
- 最终用户:[谁将受输出影响]
### 系统架构
- 组件:[列出主要组件]
- 集成点:[系统如何与其他系统连接]
- 数据流图:[附上或引用]
### 硬件要求
- 计算:[GPU、CPU 规格]
- 内存:[RAM 要求]
- 存储:[数据存储需求]
- 网络:[连接要求]
### 预期寿命
- 计划运营期:[年]
- 更新频率:[季度、年度等]
- 退役计划:[退役方案]
2. 开发过程文档
## 开发过程
### 开发团队
- 项目负责人:[姓名、资质]
- 技术负责人:[姓名、角色]
- 合规负责人:[姓名、联系方式]
### 方法论
- 开发框架:[敏捷、瀑布等]
- 质量管理体系:[ISO 9001 等]
- AI 特定方法论:[MLOps 管道详情]
### 版本历史
| 版本 | 日期 | 变更 | 验证状态 |
|---------|------|---------|-------------------|
| 1.0.0 | YYYY-MM-DD | 初始发布 | 已验证 |
| 1.1.0 | YYYY-MM-DD | [变更] | [状态] |
### 第三方组件
| 组件 | 版本 | 供应商 | 许可 |
|-----------|---------|----------|---------|
| [名称] | [版本] | [供应商] | [许可类型] |
3. 风险管理体系文档
## 风险管理(第 9 条)
### 风险识别过程
- 方法论:[如何识别风险]
- 频率:[持续、定期、事件触发]
- 涉及利益相关者:[参与角色]
### 风险估计
| 风险 ID | 描述 | 可能性 | 严重性 | 风险分数 |
|---------|-------------|------------|----------|------------|
| R001 | [风险描述] | [1-5] | [1-5] | [L x S] |
### 风险评估标准
- 可接受风险阈值:[定义]
- 风险容忍度:[组织容忍度]
### 缓解措施
| 风险 ID | 缓解 | 残余风险 | 验证 |
|---------|------------|---------------|--------------|
| R001 | [措施] | [分数] | [测试方法] |
### 持续监控
- 追踪指标:[列出指标]
- 警报阈值:[阈值]
- 响应程序:[警报时行动]
4. 数据治理文档
## 数据治理(第 10 条)
### 训练数据
- 来源:[数据来源]
- 收集方法:[数据收集方式]
- 规模:[容量、记录数]
- 时间段:[日期范围]
- 偏差分析:[已知偏差和缓解]
### 数据质量措施
| 标准 | 方法 | 结果 |
|-----------|--------|--------|
| 相关性 | [方法] | [通过/失败] |
| 完整性 | [方法] | [通过/失败] |
| 代表性 | [方法] | [通过/失败] |
### 个人数据处理
- 合法依据:[GDPR 第 6 条依据]
- 数据保护影响评估:[引用或不适用]
- 数据主体权利程序:[流程描述]
### 验证和测试数据
- 与训练分离:[如何分离]
- 规模:[容量]
- 代表性:[覆盖评估]
5. 性能和准确性文档
## 性能指标(第 15 条)
### 准确性指标
| 指标 | 训练集 | 验证集 | 测试集 |
|--------|--------------|----------------|----------|
| 准确率 | [值] | [值] | [值] |
| 精确率 | [值] | [值] | [值] |
| 召回率 | [值] | [值] | [值] |
| F1 分数 | [值] | [值] | [值] |
### 各人口群体性能
| 群体 | 准确率 | 假阳性率 | 假阴性率 |
|-------|----------|---------------------|---------------------|
| [群体 A] | [值] | [值] | [值] |
| [群体 B] | [值] | [值] | [值] |
### 鲁棒性测试
- 对抗测试结果:[摘要]
- 错误处理测试:[摘要]
- 边缘情况覆盖:[百分比]
### 网络安全措施
- 数据投毒防护:[实施的控制]
- 模型提取保护:[实施的控制]
- 访问控制:[认证、授权]
中小企业文档简化
中小企业(员工少于 250 人且年营业额低于 5000 万欧元或资产负债表低于 4300 万欧元)可使用欧盟委员会提供的简化技术文档表格。简化表格减少了文档负担,同时保留基本合规信息。
步骤 5:实施人工监督措施
人工监督对所有高风险 AI 系统是强制性的。第 14 条要求使自然人能够理解、监控和控制系统的技术措施。
技术人工监督要求
## 人工监督实施清单
### 理解能力(第 14(4)(a) 条)
[ ] 系统能力文档已提供给部署者
[ ] 已知限制已清晰记录
[ ] 不同人群的性能特征已记录
[ ] 运行条件已明确
### 异常检测(第 14(4)(b) 条)
[ ] 功能障碍警报已实施
[ ] 意外性能警告已配置
[ ] 数据漂移检测已启用
[ ] 模型退化监控已激活
### 自动化偏差预防(第 14(4)(c) 条)
[ ] 所有输出显示置信度分数
[ ] 不确定性指示器可见
[ ] 建议与决策之间有清晰区分
[ ] 培训材料涉及自动化偏差风险
### 输出解释(第 14(4)(d) 条)
[ ] 提供解释工具
[ ] 可用特征重要性或解释方法
[ ] 显示输出置信区间或不确定性范围
[ ] 关键决策有人类可读的解释
### 覆盖和停止能力(第 14(4)(e) 条)
[ ] 覆盖能力已实施
[ ] 能够撤销或修改输出
[ ] 不使用选项可用
[ ] 停止按钮已实施 - 强制
### 双重验证(第 14(5) 条)
[ ] 生物特征识别系统:两名合格人员验证
[ ] 不成比例的情况已记录执法例外
停止按钮实施要求
“停止按钮”或等效程序在第 14(4)(e) 条中明确规定要求。此技术措施必须:
- 安全停止系统:在不造成损害或数据丢失的情况下停止运营
- 可访问:运营期间对人类操作员始终可用
- 保留状态:为调查需要时保持系统状态
- 触发通知:激活时警报相关人员
示例实施方案:
停止按钮技术规范
===================================
1. 可访问性
- 控制界面中的物理按钮 或
- 键盘快捷键(记录给操作员) 或
- 语音命令(免提操作)
2. 激活时行为
- 立即停止推理(100 毫秒内)
- 保留当前输入以供审计
- 带时间戳和操作员 ID 的日志条目
- 通知监控仪表板
3. 状态保留
- 缓存最后有效输出
- 输入数据至少保留 24 小时
- 创建审计跟踪条目
4. 恢复程序
- 记录的重新启动流程
- 恢复前安全验证
- 事件报告要求
步骤 6:满足透明度义务
第 50 条确立了与人员交互或生成内容的 AI 系统的透明度义务。这些要求无论风险分类如何都适用。
各系统类型的透明度要求
| 系统类型 | 透明度要求 |
|---|---|
| 与人交互的 AI | 向用户披露 AI 性质(除非显而易见) |
| 合成内容生成器 | 以机器可读格式标记 AI 生成内容 |
| 情绪识别系统 | 通知用户情绪识别正在运行 |
| 生物特征分类 | 通知用户分类活动 |
| 深度伪造 | 披露内容已被操控或生成 |
合成内容标记实施
对于生成图像、音频或视频的系统:
## 合成内容披露
### 机器可读元数据
- 标准:[例如:IPTC、XMP、C2PA]
- 字段:[AI 生成标志]
- 值:[TRUE / 置信度分数]
### 可见披露
- 图像/视频的叠加文本
- 语音的音频水印
- 文件的元数据嵌入
### 实施选项
选项 A:C2PA 内容凭证
- 行业标准的来源证明
- 加密认证
- 浏览器/插件验证
选项 B:IPTC 照片元数据
- 现有照片元数据标准
- "AI 生成"字段
- 广泛工具支持
选项 C:自定义水印
- 可见或不可见水印
- 专有或标准算法
- 需要检测工具
AI 交互披露
对于聊天机器人、语音助手和交互系统:
## AI 披露实施
### 披露时机
- 首次交互前:初始问候
- 持续:定期提醒(每 N 次交互)
- 应请求:对"你是 AI 吗?"的清晰回应
### 披露方法
- 文本:"我是一个 AI 助手..."
- 语音:会话开始时的口头披露
- 视觉:界面中的 AI 指示器
### 例外处理
当 AI 性质从上下文中显而易见时:
- 示例:游戏 AI 角色
- 示例:搜索结果排名
- 记录不披露的理由
步骤 7:选择合格评定路径
高风险 AI 系统在投放市场前必须经过合格评定。有两条可选路径。
合格评定选项
| 路径 | 使用时机 | 程序 | 成本 | 时间线 |
|---|---|---|---|---|
| 内部控制(附录 VI) | 系统符合协调标准 | 自我评估 + 声明 | 低 | 2-4 周 |
| 公告机构(附录 VII) | 无协调标准或特定情况 | 第三方审计 | 高 | 2-6 个月 |
内部控制程序(附录 VI)
当你的系统符合官方公报发布的协调标准时可用:
- 验证协调标准覆盖:确认发布的标准覆盖你系统的功能
- 完成技术文档:附录 IV 要求
- 实施质量管理体系:持续合规流程
- 起草欧盟合格声明:合规的法律证明
- 粘贴 CE 标志:物理或数字合格标志
- 在欧盟数据库注册:针对高风险系统
公告机构程序(附录 VII)
以下情况需要:
- 没有协调标准覆盖你的系统
- 你选择不应用协调标准
- 执法生物特征识别系统(强制)
流程:
- 选择公告机构:从欧盟认可机构数据库选择
- 提交技术文档:附录 IV 包
- 接受审计:质量管理体系审查
- 获得证书:公告机构颁发的合格证书
- 粘贴带机构编号的 CE 标志:包含公告机构标识
合格评定时间线
| 里程碑 | 建议时间线 | 截止日期 |
|---|---|---|
| 风险分类完成 | 现在 | - |
| 要求差距分析 | 4-6 周 | - |
| 技术文档初稿 | 8-12 周 | - |
| 质量管理实施 | 12-16 周 | - |
| 合格评定启动 | 16-20 周 | - |
| 评定完成 | 20-24 周 | 2026 年 8 月 2 日 |
| 欧盟注册 | 投放市场前 | 2026 年 8 月 2 日 |
步骤 8:与现有治理框架对齐
拥有现有 AI 治理框架的组织可以利用它们进行欧盟人工智能法案合规,但必须了解其局限性。
框架对齐矩阵
| 维度 | 欧盟人工智能法案 | NIST AI RMF | ISO/IEC 42001 |
|---|---|---|---|
| 法律地位 | 欧盟强制 | 自愿 | 自愿认证 |
| 地理范围 | 欧盟成员国 | 美国(国际采用) | 全球 |
| 风险分类 | 四层金字塔 | 治理/映射/测量/管理 | PDCA 循环 |
| 禁止性实践 | 是 - 具体列表 | 无类别 | 无具体列表 |
| 合格评定 | 内部或公告机构 | 自我评估 | 认证审计 |
| 处罚 | 最高 3500 万欧元 / 营业额 7% | 无 | 市场导向 |
| 合格推定 | 仅协调标准 | 不适用 | 支持但不赋予 |
战略框架整合
推荐方法:
======================
1. 使用 ISO 42001 用于:
- 组织治理结构
- AI 管理体系建立
- 持续改进流程
- 审计就绪文档
2. 使用 NIST AI RMF 用于:
- 风险文档方法论
- 利益相关者参与模式
- 跨职能治理
- 风险沟通框架
3. 补充欧盟特定要求:
- 附录 IV 技术文档
- 第 14 条人工监督措施
- 第 50 条透明度要求
- 合格评定程序
4. 监控:
- 协调标准发布
- 合格推定路径
- 行业特定指南
现有框架不提供什么
- 禁止性实践类别
- 强制合规截止日期
- 欧盟合格评定
- 法律合格推定
只有官方公报发布的协调标准提供与欧盟人工智能法案要求的合格推定。
常见错误与故障排除
| 症状 | 原因 | 修复 |
|---|---|---|
| ”我们有 ISO 42001 认证就意味着合规了” | 误解合格推定 | ISO 42001 支持合规但不自动满足欧盟人工智能法案。补充附录 IV 文档。 |
| “我们不用担心到 2026 年 8 月” | 错过禁止性实践截止日期 | 第 5 条自 2025 年 2 月 2 日起已可执行。立即审计禁止用途。 |
| “我们的系统不与人交互所以不需要透明度” | 忽略合成内容标记 | 内容生成系统即使没有人工交互也需要标记。 |
| “我们是中小企业所以要求不适用” | 误解中小企业规定 | 中小企业获得简化文档表格和较低处罚上限,但所有高风险要求仍适用。 |
| “我们的系统只检测模式,不是高风险” | 错过画像分析例外 | 带画像分析的模式检测无论其他条件如何始终是高风险。 |
| “我们就用内部控制路径” | 无协调标准可用 | 检查你系统类型的协调标准是否已发布。如无,可能需要公告机构。 |
案例:受禁止性实践影响的行业
案例 1:带情绪识别的人力资源技术平台
公司:中型招聘技术提供商,服务欧盟企业客户
系统:使用面部表情分析评估候选人在面试期间情绪的视频面试分析平台
问题:就业环境中的情绪识别自 2025 年 2 月 2 日起被禁止
采取行动:
- 立即为欧盟客户禁用情绪推断模块
- 仅保留人脸识别用于身份验证(经同意)
- 记录带有合规理由的系统修改
- 通知受影响客户功能移除
- 为非欧盟市场保留情绪分析功能并获取用户同意
合规状态:现已合规;情绪识别已从欧盟部署中移除
教训:
- 可能需要地理功能门控
- 记录所有带有合规理由的系统修改
- 客户沟通对维护信任至关重要
案例 2:教育科技学生参与度监控
公司:提供课堂分析的教育技术初创公司
系统:使用网络摄像头画面衡量参与度的 AI 驱动学生注意力追踪
问题:教育机构中的情绪识别被禁止
采取行动:
- 转向隐私保护的参与度指标
- 用自愿注意力指标(学生点击、响应)替代情绪推断
- 添加透明度覆盖显示监控何时激活
- 为所有生物特征数据收集实施同意机制
- 保留学业表现分析(非禁止)
合规状态:转型为带同意机制的透明度风险系统
教训:
- 可能需要商业模式转型
- 同意机制对剩余生物特征功能至关重要
- 透明度要求仍适用
案例 3:人脸识别服务提供商
公司:提供人脸识别数据库的安防技术供应商
系统:从公共网络来源和闭路电视收集面部图像用于身份验证服务
问题:为创建数据库进行无针对性面部抓取被禁止
采取行动:
- 停止所有无针对性网络抓取活动
- 转向带明确同意的选择加入数据库模式
- 实施带记录理由的目标特定收集
- 为收集来源添加数据治理控制
- 为之前抓取的数据建立删除程序
合规状态:在带记录数据来源的同意模式下运营
教训:
- 数据收集实践可能需要根本性重构
- 来源文档变得至关重要
- 遗留数据可能需要删除或同意补丁
合规时间线与行动计划
关键截止日期
| 日期 | 要求 | 所需行动 |
|---|---|---|
| 2025 年 2 月 2 日 | 禁止性实践可执行 | 审计并停止禁止系统 |
| 2025 年 8 月 2 日 | 透明度义务、治理结构 | 实施披露机制 |
| 2026 年 2 月 2 日 | 委员会高风险分类指南 | 审查分类支持指南 |
| 2026 年 8 月 2 日 | 高风险系统要求、合格评定 | 完成文档和评定 |
| 2027 年 8 月 2 日 | GPAI 模型义务、附录 I 产品系统 | GPAI 提供商完成合规 |
优先级行动计划
立即行动(第 1-4 周):
======================
[ ] 完成禁止性实践审计
[ ] 识别所有部署/管道中的 AI 系统
[ ] 使用决策树分类每个系统
[ ] 记录分类理由
[ ] 立即停止禁止性实践
短期行动(第 1-6 个月):
=======================
[ ] 实施透明度机制
[ ] 起草高风险系统技术文档
[ ] 建立 AI 治理委员会
[ ] 开始合格评定准备
[ ] 监控协调标准发布
中期行动(第 6-12 个月):
=========================
[ ] 完成高风险文档
[ ] 实施人工监督措施
[ ] 建立持续风险监控
[ ] 启动合格评定(如高风险)
[ ] 培训人员合规要求
长期行动(第 12-18 个月):
========================
[ ] 完成合格评定
[ ] 在欧盟数据库注册
[ ] 建立合规监控计划
[ ] 规划持续文档更新
[ ] 准备监管审计
🔺 独家情报:别处看不到的洞察
置信度: 高 | 新颖度评分: 78/100
现有政策概述聚焦于法律解读,而本指南揭示了合规官和 AI 开发者经常忽视的三个关键技术实施洞察。首先,附录 III 高风险分类的豁免条件有特定的画像分析例外——这将覆盖所有其他条件,执行画像分析的系统无论狭义程序性任务设计如何都保持高风险。其次,“停止按钮”要求(第 14(4)(e) 条)不是可选文档,而是必须在毫秒内安全停止系统的强制性技术功能。第三,合格推定的协调标准尚待发布,这意味着组织在欧盟标准化机构完成工作前无法仅依赖内部控制程序——预计时间线将延续至 2026 年末。
关键启示: 目前使用 ISO 42001 或 NIST AI RMF 作为主要合规框架的组织必须补充附录 IV 技术文档,并且在协调标准出现于官方公报前无法声明合格推定——在此期间应规划公告机构评定。
总结与下一步
本指南提供了欧盟人工智能法案合规的完整框架:
关键要点:
- 禁止性实践已可执行——需要立即行动
- 使用决策树系统性地对所有 AI 系统进行分类
- 附录 III 系统存在豁免条件——记录你的评估
- 技术文档必须解决所有附录 IV 要素
- 人工监督需要功能性的”停止按钮”——不可协商
- 现有框架(ISO 42001、NIST RMF)支持但不满足欧盟要求
- 合格评定路径取决于协调标准可用性
建议下一步:
- 立即进行禁止性实践审计
- 对所有 AI 系统完成分类评估
- 识别需要合格评定的高风险系统
- 开始技术文档起草
- 为持续合规建立治理结构
相关资源:
- 欧盟人工智能法案官方浏览器 - 附条文分析的完整法规文本
- ISO/IEC 42001:2023 - AI 管理体系标准
- NIST AI 风险管理框架 - 美国风险治理框架
信息来源
- 欧盟人工智能法案官方浏览器 - 欧盟人工智能法案官方参考网站
- EUR-Lex 官方公报 - 法规 (EU) 2024/1689 定本
- 第 5 条:禁止性 AI 实践 - 完整禁止性实践文本
- 第 6 条:分类规则 - 高风险分类标准
- 第 9 条:风险管理体系 - 持续风险管理要求
- 第 11 条:技术文档 - 上市前文档要求
- 第 13 条:透明度 - 信息提供要求
- 第 14 条:人工监督 - 监督设计要求
- 第 15 条:准确性、鲁棒性、网络安全 - 性能要求
- 第 43 条:合格评定 - 评定程序
- 第 50 条:透明度义务 - 用户披露要求
- 第 99 条:处罚 - 行政罚款结构
- 第 113 条:实施时间线 - 生效日期
- ISO/IEC 42001:2023 - AI 管理体系标准
- NIST AI 风险管理框架 - 美国 AI 风险治理框架
欧盟人工智能法案合规指南:系统风险分类与管理实践框架
提供基于欧盟人工智能法案风险金字塔的人工智能系统分类实用框架,内含决策树流程、文档模板与技术合规检查清单,帮助应对 2025 年 2 月已生效的禁止性实践规定。
本指南适用人群
- 目标读者:AI 产品经理、合规官、企业架构师以及在欧盟市场部署 AI 系统或服务欧盟客户的开发者
- 前置要求:对 AI 系统有基本了解,熟悉监管合规概念
- 预计时间:完成完整分类和初步合规规划需 45-60 分钟
概述
本指南提供一套循序渐进的框架,用于按照欧盟人工智能法案(EU AI Act)的风险金字塔对 AI 系统进行分类,并实施技术合规措施。你将学到:
- 如何使用决策树将任意 AI 系统归类到四个风险等级之一
- 哪些 AI 实践已被禁止(自 2025 年 2 月 2 日起可执行)
- 高风险系统的技术文档要求
- 人工监督实施,包括强制性的”停止按钮”要求
- 合格评定路径和基于时间线的合规规划
欧盟人工智能法案建立了基于风险的监管框架,执行截止日期从 2025 年 2 月延续至 2027 年 8 月。在欧盟市场部署 AI 系统的组织如违反禁止性实践规定,面临最高 3500 万欧元或全球年营业额 7% 的罚款。
关键事实
- 适用对象:欧盟成员国、在欧盟市场部署 AI 系统的组织、全球 AI 提供商和部署者
- 法规内容:法规 (EU) 2024/1689 建立四层风险分类体系,违规罚款最高达 3500 万欧元或营业额的 7%
- 时间节点:禁止性实践自 2025 年 2 月 2 日起可执行;高风险系统截止日期为 2026 年 8 月 2 日
- 影响范围:人力资源技术、教育科技、人脸识别、医疗器械、车辆、就业筛选、执法 AI
步骤 1:使用决策树确定风险分类
欧盟人工智能法案采用四层风险金字塔。分类决定你的合规义务,从完全禁止到自愿最佳实践。
四个风险等级
| 风险等级 | 执行状态 | 核心要求 | 截止日期 |
|---|---|---|---|
| 禁止 | 刑事/行政处罚 | 完全禁止 | 2025 年 2 月 2 日(已可执行) |
| 高风险 | 需合格评定 | 全面遵守第 9-15 条 | 2026 年 8 月 2 日 |
| 透明度风险 | 披露义务 | 用户通知要求 | 2025 年 8 月 2 日 |
| 最小风险 | 自愿行为准则 | 鼓励最佳实践 | 无截止日期 |
分类决策树
使用此决策流程对你的 AI 系统进行分类:
开始:你的 AI 系统的主要功能是什么?
步骤 1:禁止性实践检查
=========================================================
你的系统是否执行以下任一操作?
- 在工作场所或教育环境中推断情绪
- 通过无针对性抓取创建人脸识别数据库
- 实施社会信用评分并造成不利对待
- 仅从画像预测犯罪风险
- 通过生物特征按种族/政治/宗教/取向对人分类
- 使用阈下技术扭曲超出意识的行为
- 利用弱点(年龄、残疾、社会经济地位)
- 在公共场所进行实时生物特征识别(有限例外)
是 -> 停止。分类:禁止
系统不得投放市场或投入使用。
否 -> 进入步骤 2
步骤 2:附录 III 高风险检查
=========================================================
你的系统是否列在附录 III 中?
- 生物特征识别和分类
- 关键基础设施管理
- 教育和职业培训
- 就业、工人管理、自营职业
- 获得基本服务(信贷、保险、福利)
- 执法
- 移民、庇护、边境管制
- 司法和民主程序管理
否 -> 进入步骤 3
是 -> 检查豁免条件:
你的系统是否:
A) 执行狭义程序性任务?
B) 改善人类活动的结果?
C) 检测决策模式而不替代人类?
D) 执行准备性评估任务?
且:不执行画像分析?
所有条件满足 -> 分类:非高风险
记录豁免评估。
任一条件不满足 -> 分类:高风险
进入合格评定。
步骤 3:附录 I 产品安全检查
=========================================================
你的 AI 系统是否是以下法规覆盖产品的安全组件:
- 机械法规
- 医疗器械法规
- 无线电设备指令
- 玩具安全指令
- 电梯指令
- 附录 I 中列出的其他行业法规
否 -> 进入步骤 4
是 -> 产品是否需要第三方合格评定?
是 -> 分类:高风险(产品相关)
通过行业法规进行合格评定。
否 -> 进入步骤 4
步骤 4:透明度风险检查
=========================================================
你的系统是否:
- 直接与人交互(聊天机器人、语音助手)?
- 生成合成内容(图像、音频、视频、文本)?
- 执行情绪识别(工作场所/教育之外)?
- 执行生物特征分类?
- 创建深度伪造?
是 -> 分类:透明度风险
适用第 50 条的披露要求。
否 -> 分类:最小风险
可使用自愿行为准则。
结束
需避免的常见分类错误
| 错误 | 纠正 |
|---|---|
| 假设所有生物特征系统都被禁止 | 只有特定实践被禁止(无针对性面部抓取、工作场所/教育中的情绪识别)。许多生物特征系统是高风险,而非禁止。 |
| 不检查豁免就过度归类为高风险 | 附录 III 系统如果满足豁免条件可申请非高风险身份。记录你的评估。 |
| 错过 2025 年 2 月截止日期 | 第 5 条禁止性实践已可执行。受影响系统的组织必须立即停止运营。 |
步骤 2:识别禁止性实践(已可执行)
欧盟人工智能法案的禁止性实践已于 2025 年 2 月 2 日 生效。目前使用这些系统的组织面临立即执行的风险。
禁止性 AI 实践完整列表
1. 工作场所和教育中的情绪识别
被禁止内容:在就业和教育环境中从面部表情、声音模式或其他生物特征信号推断情绪的 AI 系统。
技术范围:
- 基于情绪反应的候选人筛选
- 通过情感分析监控员工参与度
- 课堂中学生注意力或情绪追踪
- 基于情绪指标的绩效评估
例外:医疗或安全目的(例如检测驾驶员疲劳、经同意的治疗应用)。
受影响行业:人力资源技术平台、教育科技应用、工作场所分析工具。
2. 无针对性面部抓取
被禁止内容:在没有特定目标的情况下,从互联网或闭路电视画面自动收集面部图像,用于创建或扩展人脸识别数据库。
技术范围:
- 抓取社交媒体个人资料图像
- 无特定调查目的收集闭路电视画面
- 从公共来源批量收集生物特征数据
受影响行业:人脸识别服务提供商、安防技术供应商、身份验证平台。
3. 社会信用评分系统
被禁止内容:根据社会行为或人格特征随时间对人员分类,导致在不相关情境中造成不利对待的 AI 系统。
技术范围:
- 跨情境聚合行为的评分系统
- 基于不相关数据分数的对待决策
- 从社交媒体活动创建可信度评级的系统
受影响行业:信用评分扩展、保险风险评估、租户筛选。
4. 犯罪风险预测性执法
被禁止内容:仅从画像或人格特征预测犯罪风险,没有支持性事实证据的 AI 系统。
技术范围:
- 仅基于人口统计或行为特征档案的风险评估
- 没有具体犯罪指标预测模型
- 没有司法监督的基于画像威胁评分
5. 基于受保护特征的生物特征分类
被禁止内容:通过生物特征数据对人分类以推断种族、政治观点、工会成员身份、宗教信仰、性取向的 AI 系统。
例外:执法部门对合法获取的数据集进行过滤。
6. 公共场所实时远程生物特征识别
被禁止内容:在公共场所为执法目的进行实时生物特征识别。
有限例外需要:
- 司法授权或同等授权
- 严格必要性:失踪人员搜寻、恐怖威胁预防、严重犯罪调查(4 年以上监禁刑期)
- 基本权利影响评估
- 欧盟数据库注册
禁止性实践立即行动清单
- 审计所有 AI 系统在人力资源/教育环境中的情绪识别能力
- 审查面部抓取活动的数据收集实践
- 评估客户/员工评估系统中的社会信用评分机制
- 记录任何基于受保护特征的生物特征分类
- 停止禁止的系统或修改为合规用例
步骤 3:评估高风险分类和豁免选项
如果你的系统未被禁止但属于附录 III 类别,你必须确定高风险要求是否适用或豁免条件是否满足。
附录 III 高风险类别
| 类别 | 包含系统 | 豁免可能? |
|---|---|---|
| 生物特征识别 | 远程生物特征识别、生物特征分类 | 有限 - 画像分析始终高风险 |
| 关键基础设施 | 能源、交通、供水管理系统 | 是 - 如果是狭义程序性任务 |
| 教育 | 学生录取、学习成果评估、监考 | 是 - 如果改善人类结果 |
| 就业 | 招聘筛选、任务分配、绩效评估 | 是 - 如果仅是模式检测 |
| 基本服务 | 信用度、保险定价、福利资格 | 有限 - 画像分析始终高风险 |
| 执法 | 测谎、情绪评估、风险评估、DNA 分析 | 否 |
| 移民 | 边境管制、签证处理、庇护评估 | 有限 |
| 司法 | 法院裁决、判例分析、证据评估 | 否 - 司法独立 |
豁免评估框架
对于附录 III 系统,在申请非高风险身份前记录此评估:
豁免评估记录
================================
系统名称:[你的 AI 系统]
附录 III 类别:[例如:就业 - 第 6(2) 条]
评估日期:[YYYY-MM-DD]
评估人:[姓名、职位]
豁免条件检查:
[ ] 条件 A:狭义程序性任务
系统是否执行狭义程序性任务而不
实质性影响决策结果?
证据:[描述任务范围、决策影响级别]
[ ] 条件 B:改善人类活动结果
系统是否仅改善以前没有 AI 的
人类活动结果?
证据:[描述人类基线、改善指标]
[ ] 条件 C:检测模式而不替代决策
系统是否检测决策模式或提供辅助
信息而不替代人类决策?
证据:[描述决策流程、人类在最终决策中的角色]
[ ] 条件 D:准备性评估任务
系统是否执行与附录 III 用例相关
的评估准备任务?
证据:[描述准备性与最终评估角色]
关键检查:
[ ] 画像分析状态:系统是否执行画像分析?
是 -> 豁免不适用。系统为高风险。
否 -> 如果满足条件 A-D 中任一条,豁免可能适用。
结论:
[ ] 非高风险:豁免条件满足
记录并保留评估记录。
[ ] 高风险:豁免不适用
进入合格评定要求。
画像分析何时覆盖豁免
画像分析定义为自动处理个人数据以评估某些个人方面。如果你的附录 III 系统执行画像分析,豁免不可用,无论其他条件如何。
执行画像分析的系统:
- 用于招聘决策的行为评分
- 用于学生安置的学习风格分类
- 基于个人特征的风险评估
- 从行为数据评估信用度
步骤 4:实施高风险系统的技术文档
高风险 AI 系统在投放市场前需要全面的技术文档。此文档必须在系统生命周期内持续维护。
附录 IV 文档模板
创建包含以下要素的技术文档文件:
1. 系统总体描述
## 系统概述
### 提供商信息
- 公司名称:[法人实体名称]
- 地址:[注册地址]
- 联系方式:[合规联系人]
### 系统身份
- 系统名称:[产品/服务名称]
- 版本:[当前版本号]
- 预期用途:[具体用例描述]
- 目标用户:[谁将操作系统]
- 最终用户:[谁将受输出影响]
### 系统架构
- 组件:[列出主要组件]
- 集成点:[系统如何与其他系统连接]
- 数据流图:[附上或引用]
### 硬件要求
- 计算:[GPU、CPU 规格]
- 内存:[RAM 要求]
- 存储:[数据存储需求]
- 网络:[连接要求]
### 预期寿命
- 计划运营期:[年]
- 更新频率:[季度、年度等]
- 退役计划:[退役方案]
2. 开发过程文档
## 开发过程
### 开发团队
- 项目负责人:[姓名、资质]
- 技术负责人:[姓名、角色]
- 合规负责人:[姓名、联系方式]
### 方法论
- 开发框架:[敏捷、瀑布等]
- 质量管理体系:[ISO 9001 等]
- AI 特定方法论:[MLOps 管道详情]
### 版本历史
| 版本 | 日期 | 变更 | 验证状态 |
|---------|------|---------|-------------------|
| 1.0.0 | YYYY-MM-DD | 初始发布 | 已验证 |
| 1.1.0 | YYYY-MM-DD | [变更] | [状态] |
### 第三方组件
| 组件 | 版本 | 供应商 | 许可 |
|-----------|---------|----------|---------|
| [名称] | [版本] | [供应商] | [许可类型] |
3. 风险管理体系文档
## 风险管理(第 9 条)
### 风险识别过程
- 方法论:[如何识别风险]
- 频率:[持续、定期、事件触发]
- 涉及利益相关者:[参与角色]
### 风险估计
| 风险 ID | 描述 | 可能性 | 严重性 | 风险分数 |
|---------|-------------|------------|----------|------------|
| R001 | [风险描述] | [1-5] | [1-5] | [L x S] |
### 风险评估标准
- 可接受风险阈值:[定义]
- 风险容忍度:[组织容忍度]
### 缓解措施
| 风险 ID | 缓解 | 残余风险 | 验证 |
|---------|------------|---------------|--------------|
| R001 | [措施] | [分数] | [测试方法] |
### 持续监控
- 追踪指标:[列出指标]
- 警报阈值:[阈值]
- 响应程序:[警报时行动]
4. 数据治理文档
## 数据治理(第 10 条)
### 训练数据
- 来源:[数据来源]
- 收集方法:[数据收集方式]
- 规模:[容量、记录数]
- 时间段:[日期范围]
- 偏差分析:[已知偏差和缓解]
### 数据质量措施
| 标准 | 方法 | 结果 |
|-----------|--------|--------|
| 相关性 | [方法] | [通过/失败] |
| 完整性 | [方法] | [通过/失败] |
| 代表性 | [方法] | [通过/失败] |
### 个人数据处理
- 合法依据:[GDPR 第 6 条依据]
- 数据保护影响评估:[引用或不适用]
- 数据主体权利程序:[流程描述]
### 验证和测试数据
- 与训练分离:[如何分离]
- 规模:[容量]
- 代表性:[覆盖评估]
5. 性能和准确性文档
## 性能指标(第 15 条)
### 准确性指标
| 指标 | 训练集 | 验证集 | 测试集 |
|--------|--------------|----------------|----------|
| 准确率 | [值] | [值] | [值] |
| 精确率 | [值] | [值] | [值] |
| 召回率 | [值] | [值] | [值] |
| F1 分数 | [值] | [值] | [值] |
### 各人口群体性能
| 群体 | 准确率 | 假阳性率 | 假阴性率 |
|-------|----------|---------------------|---------------------|
| [群体 A] | [值] | [值] | [值] |
| [群体 B] | [值] | [值] | [值] |
### 鲁棒性测试
- 对抗测试结果:[摘要]
- 错误处理测试:[摘要]
- 边缘情况覆盖:[百分比]
### 网络安全措施
- 数据投毒防护:[实施的控制]
- 模型提取保护:[实施的控制]
- 访问控制:[认证、授权]
中小企业文档简化
中小企业(员工少于 250 人且年营业额低于 5000 万欧元或资产负债表低于 4300 万欧元)可使用欧盟委员会提供的简化技术文档表格。简化表格减少了文档负担,同时保留基本合规信息。
步骤 5:实施人工监督措施
人工监督对所有高风险 AI 系统是强制性的。第 14 条要求使自然人能够理解、监控和控制系统的技术措施。
技术人工监督要求
## 人工监督实施清单
### 理解能力(第 14(4)(a) 条)
[ ] 系统能力文档已提供给部署者
[ ] 已知限制已清晰记录
[ ] 不同人群的性能特征已记录
[ ] 运行条件已明确
### 异常检测(第 14(4)(b) 条)
[ ] 功能障碍警报已实施
[ ] 意外性能警告已配置
[ ] 数据漂移检测已启用
[ ] 模型退化监控已激活
### 自动化偏差预防(第 14(4)(c) 条)
[ ] 所有输出显示置信度分数
[ ] 不确定性指示器可见
[ ] 建议与决策之间有清晰区分
[ ] 培训材料涉及自动化偏差风险
### 输出解释(第 14(4)(d) 条)
[ ] 提供解释工具
[ ] 可用特征重要性或解释方法
[ ] 显示输出置信区间或不确定性范围
[ ] 关键决策有人类可读的解释
### 覆盖和停止能力(第 14(4)(e) 条)
[ ] 覆盖能力已实施
[ ] 能够撤销或修改输出
[ ] 不使用选项可用
[ ] 停止按钮已实施 - 强制
### 双重验证(第 14(5) 条)
[ ] 生物特征识别系统:两名合格人员验证
[ ] 不成比例的情况已记录执法例外
停止按钮实施要求
“停止按钮”或等效程序在第 14(4)(e) 条中明确规定要求。此技术措施必须:
- 安全停止系统:在不造成损害或数据丢失的情况下停止运营
- 可访问:运营期间对人类操作员始终可用
- 保留状态:为调查需要时保持系统状态
- 触发通知:激活时警报相关人员
示例实施方案:
停止按钮技术规范
===================================
1. 可访问性
- 控制界面中的物理按钮 或
- 键盘快捷键(记录给操作员) 或
- 语音命令(免提操作)
2. 激活时行为
- 立即停止推理(100 毫秒内)
- 保留当前输入以供审计
- 带时间戳和操作员 ID 的日志条目
- 通知监控仪表板
3. 状态保留
- 缓存最后有效输出
- 输入数据至少保留 24 小时
- 创建审计跟踪条目
4. 恢复程序
- 记录的重新启动流程
- 恢复前安全验证
- 事件报告要求
步骤 6:满足透明度义务
第 50 条确立了与人员交互或生成内容的 AI 系统的透明度义务。这些要求无论风险分类如何都适用。
各系统类型的透明度要求
| 系统类型 | 透明度要求 |
|---|---|
| 与人交互的 AI | 向用户披露 AI 性质(除非显而易见) |
| 合成内容生成器 | 以机器可读格式标记 AI 生成内容 |
| 情绪识别系统 | 通知用户情绪识别正在运行 |
| 生物特征分类 | 通知用户分类活动 |
| 深度伪造 | 披露内容已被操控或生成 |
合成内容标记实施
对于生成图像、音频或视频的系统:
## 合成内容披露
### 机器可读元数据
- 标准:[例如:IPTC、XMP、C2PA]
- 字段:[AI 生成标志]
- 值:[TRUE / 置信度分数]
### 可见披露
- 图像/视频的叠加文本
- 语音的音频水印
- 文件的元数据嵌入
### 实施选项
选项 A:C2PA 内容凭证
- 行业标准的来源证明
- 加密认证
- 浏览器/插件验证
选项 B:IPTC 照片元数据
- 现有照片元数据标准
- "AI 生成"字段
- 广泛工具支持
选项 C:自定义水印
- 可见或不可见水印
- 专有或标准算法
- 需要检测工具
AI 交互披露
对于聊天机器人、语音助手和交互系统:
## AI 披露实施
### 披露时机
- 首次交互前:初始问候
- 持续:定期提醒(每 N 次交互)
- 应请求:对"你是 AI 吗?"的清晰回应
### 披露方法
- 文本:"我是一个 AI 助手..."
- 语音:会话开始时的口头披露
- 视觉:界面中的 AI 指示器
### 例外处理
当 AI 性质从上下文中显而易见时:
- 示例:游戏 AI 角色
- 示例:搜索结果排名
- 记录不披露的理由
步骤 7:选择合格评定路径
高风险 AI 系统在投放市场前必须经过合格评定。有两条可选路径。
合格评定选项
| 路径 | 使用时机 | 程序 | 成本 | 时间线 |
|---|---|---|---|---|
| 内部控制(附录 VI) | 系统符合协调标准 | 自我评估 + 声明 | 低 | 2-4 周 |
| 公告机构(附录 VII) | 无协调标准或特定情况 | 第三方审计 | 高 | 2-6 个月 |
内部控制程序(附录 VI)
当你的系统符合官方公报发布的协调标准时可用:
- 验证协调标准覆盖:确认发布的标准覆盖你系统的功能
- 完成技术文档:附录 IV 要求
- 实施质量管理体系:持续合规流程
- 起草欧盟合格声明:合规的法律证明
- 粘贴 CE 标志:物理或数字合格标志
- 在欧盟数据库注册:针对高风险系统
公告机构程序(附录 VII)
以下情况需要:
- 没有协调标准覆盖你的系统
- 你选择不应用协调标准
- 执法生物特征识别系统(强制)
流程:
- 选择公告机构:从欧盟认可机构数据库选择
- 提交技术文档:附录 IV 包
- 接受审计:质量管理体系审查
- 获得证书:公告机构颁发的合格证书
- 粘贴带机构编号的 CE 标志:包含公告机构标识
合格评定时间线
| 里程碑 | 建议时间线 | 截止日期 |
|---|---|---|
| 风险分类完成 | 现在 | - |
| 要求差距分析 | 4-6 周 | - |
| 技术文档初稿 | 8-12 周 | - |
| 质量管理实施 | 12-16 周 | - |
| 合格评定启动 | 16-20 周 | - |
| 评定完成 | 20-24 周 | 2026 年 8 月 2 日 |
| 欧盟注册 | 投放市场前 | 2026 年 8 月 2 日 |
步骤 8:与现有治理框架对齐
拥有现有 AI 治理框架的组织可以利用它们进行欧盟人工智能法案合规,但必须了解其局限性。
框架对齐矩阵
| 维度 | 欧盟人工智能法案 | NIST AI RMF | ISO/IEC 42001 |
|---|---|---|---|
| 法律地位 | 欧盟强制 | 自愿 | 自愿认证 |
| 地理范围 | 欧盟成员国 | 美国(国际采用) | 全球 |
| 风险分类 | 四层金字塔 | 治理/映射/测量/管理 | PDCA 循环 |
| 禁止性实践 | 是 - 具体列表 | 无类别 | 无具体列表 |
| 合格评定 | 内部或公告机构 | 自我评估 | 认证审计 |
| 处罚 | 最高 3500 万欧元 / 营业额 7% | 无 | 市场导向 |
| 合格推定 | 仅协调标准 | 不适用 | 支持但不赋予 |
战略框架整合
推荐方法:
======================
1. 使用 ISO 42001 用于:
- 组织治理结构
- AI 管理体系建立
- 持续改进流程
- 审计就绪文档
2. 使用 NIST AI RMF 用于:
- 风险文档方法论
- 利益相关者参与模式
- 跨职能治理
- 风险沟通框架
3. 补充欧盟特定要求:
- 附录 IV 技术文档
- 第 14 条人工监督措施
- 第 50 条透明度要求
- 合格评定程序
4. 监控:
- 协调标准发布
- 合格推定路径
- 行业特定指南
现有框架不提供什么
- 禁止性实践类别
- 强制合规截止日期
- 欧盟合格评定
- 法律合格推定
只有官方公报发布的协调标准提供与欧盟人工智能法案要求的合格推定。
常见错误与故障排除
| 症状 | 原因 | 修复 |
|---|---|---|
| ”我们有 ISO 42001 认证就意味着合规了” | 误解合格推定 | ISO 42001 支持合规但不自动满足欧盟人工智能法案。补充附录 IV 文档。 |
| “我们不用担心到 2026 年 8 月” | 错过禁止性实践截止日期 | 第 5 条自 2025 年 2 月 2 日起已可执行。立即审计禁止用途。 |
| “我们的系统不与人交互所以不需要透明度” | 忽略合成内容标记 | 内容生成系统即使没有人工交互也需要标记。 |
| “我们是中小企业所以要求不适用” | 误解中小企业规定 | 中小企业获得简化文档表格和较低处罚上限,但所有高风险要求仍适用。 |
| “我们的系统只检测模式,不是高风险” | 错过画像分析例外 | 带画像分析的模式检测无论其他条件如何始终是高风险。 |
| “我们就用内部控制路径” | 无协调标准可用 | 检查你系统类型的协调标准是否已发布。如无,可能需要公告机构。 |
案例:受禁止性实践影响的行业
案例 1:带情绪识别的人力资源技术平台
公司:中型招聘技术提供商,服务欧盟企业客户
系统:使用面部表情分析评估候选人在面试期间情绪的视频面试分析平台
问题:就业环境中的情绪识别自 2025 年 2 月 2 日起被禁止
采取行动:
- 立即为欧盟客户禁用情绪推断模块
- 仅保留人脸识别用于身份验证(经同意)
- 记录带有合规理由的系统修改
- 通知受影响客户功能移除
- 为非欧盟市场保留情绪分析功能并获取用户同意
合规状态:现已合规;情绪识别已从欧盟部署中移除
教训:
- 可能需要地理功能门控
- 记录所有带有合规理由的系统修改
- 客户沟通对维护信任至关重要
案例 2:教育科技学生参与度监控
公司:提供课堂分析的教育技术初创公司
系统:使用网络摄像头画面衡量参与度的 AI 驱动学生注意力追踪
问题:教育机构中的情绪识别被禁止
采取行动:
- 转向隐私保护的参与度指标
- 用自愿注意力指标(学生点击、响应)替代情绪推断
- 添加透明度覆盖显示监控何时激活
- 为所有生物特征数据收集实施同意机制
- 保留学业表现分析(非禁止)
合规状态:转型为带同意机制的透明度风险系统
教训:
- 可能需要商业模式转型
- 同意机制对剩余生物特征功能至关重要
- 透明度要求仍适用
案例 3:人脸识别服务提供商
公司:提供人脸识别数据库的安防技术供应商
系统:从公共网络来源和闭路电视收集面部图像用于身份验证服务
问题:为创建数据库进行无针对性面部抓取被禁止
采取行动:
- 停止所有无针对性网络抓取活动
- 转向带明确同意的选择加入数据库模式
- 实施带记录理由的目标特定收集
- 为收集来源添加数据治理控制
- 为之前抓取的数据建立删除程序
合规状态:在带记录数据来源的同意模式下运营
教训:
- 数据收集实践可能需要根本性重构
- 来源文档变得至关重要
- 遗留数据可能需要删除或同意补丁
合规时间线与行动计划
关键截止日期
| 日期 | 要求 | 所需行动 |
|---|---|---|
| 2025 年 2 月 2 日 | 禁止性实践可执行 | 审计并停止禁止系统 |
| 2025 年 8 月 2 日 | 透明度义务、治理结构 | 实施披露机制 |
| 2026 年 2 月 2 日 | 委员会高风险分类指南 | 审查分类支持指南 |
| 2026 年 8 月 2 日 | 高风险系统要求、合格评定 | 完成文档和评定 |
| 2027 年 8 月 2 日 | GPAI 模型义务、附录 I 产品系统 | GPAI 提供商完成合规 |
优先级行动计划
立即行动(第 1-4 周):
======================
[ ] 完成禁止性实践审计
[ ] 识别所有部署/管道中的 AI 系统
[ ] 使用决策树分类每个系统
[ ] 记录分类理由
[ ] 立即停止禁止性实践
短期行动(第 1-6 个月):
=======================
[ ] 实施透明度机制
[ ] 起草高风险系统技术文档
[ ] 建立 AI 治理委员会
[ ] 开始合格评定准备
[ ] 监控协调标准发布
中期行动(第 6-12 个月):
=========================
[ ] 完成高风险文档
[ ] 实施人工监督措施
[ ] 建立持续风险监控
[ ] 启动合格评定(如高风险)
[ ] 培训人员合规要求
长期行动(第 12-18 个月):
========================
[ ] 完成合格评定
[ ] 在欧盟数据库注册
[ ] 建立合规监控计划
[ ] 规划持续文档更新
[ ] 准备监管审计
🔺 独家情报:别处看不到的洞察
置信度: 高 | 新颖度评分: 78/100
现有政策概述聚焦于法律解读,而本指南揭示了合规官和 AI 开发者经常忽视的三个关键技术实施洞察。首先,附录 III 高风险分类的豁免条件有特定的画像分析例外——这将覆盖所有其他条件,执行画像分析的系统无论狭义程序性任务设计如何都保持高风险。其次,“停止按钮”要求(第 14(4)(e) 条)不是可选文档,而是必须在毫秒内安全停止系统的强制性技术功能。第三,合格推定的协调标准尚待发布,这意味着组织在欧盟标准化机构完成工作前无法仅依赖内部控制程序——预计时间线将延续至 2026 年末。
关键启示: 目前使用 ISO 42001 或 NIST AI RMF 作为主要合规框架的组织必须补充附录 IV 技术文档,并且在协调标准出现于官方公报前无法声明合格推定——在此期间应规划公告机构评定。
总结与下一步
本指南提供了欧盟人工智能法案合规的完整框架:
关键要点:
- 禁止性实践已可执行——需要立即行动
- 使用决策树系统性地对所有 AI 系统进行分类
- 附录 III 系统存在豁免条件——记录你的评估
- 技术文档必须解决所有附录 IV 要素
- 人工监督需要功能性的”停止按钮”——不可协商
- 现有框架(ISO 42001、NIST RMF)支持但不满足欧盟要求
- 合格评定路径取决于协调标准可用性
建议下一步:
- 立即进行禁止性实践审计
- 对所有 AI 系统完成分类评估
- 识别需要合格评定的高风险系统
- 开始技术文档起草
- 为持续合规建立治理结构
相关资源:
- 欧盟人工智能法案官方浏览器 - 附条文分析的完整法规文本
- ISO/IEC 42001:2023 - AI 管理体系标准
- NIST AI 风险管理框架 - 美国风险治理框架
信息来源
- 欧盟人工智能法案官方浏览器 - 欧盟人工智能法案官方参考网站
- EUR-Lex 官方公报 - 法规 (EU) 2024/1689 定本
- 第 5 条:禁止性 AI 实践 - 完整禁止性实践文本
- 第 6 条:分类规则 - 高风险分类标准
- 第 9 条:风险管理体系 - 持续风险管理要求
- 第 11 条:技术文档 - 上市前文档要求
- 第 13 条:透明度 - 信息提供要求
- 第 14 条:人工监督 - 监督设计要求
- 第 15 条:准确性、鲁棒性、网络安全 - 性能要求
- 第 43 条:合格评定 - 评定程序
- 第 50 条:透明度义务 - 用户披露要求
- 第 99 条:处罚 - 行政罚款结构
- 第 113 条:实施时间线 - 生效日期
- ISO/IEC 42001:2023 - AI 管理体系标准
- NIST AI 风险管理框架 - 美国 AI 风险治理框架
相关情报
AI 智能体标准化竞赛:政府与产业谁将主导规则制定?
NIST 与 W3C 于 2026 年发布人工智能智能体标准倡议,但产业框架凭借庞大开发者社区已主导市场采用,三款主流框架合计获得超过十三万 GitHub 星标。核心矛盾:政府标准需数年达成共识,而框架则保持月度迭代节奏。
联邦首个多智能体安全框架出台:NIST CAISI 计划深度解析
NIST 的 CAISI 计划首次针对多智能体系统独有的安全漏洞制定标准,区别于传统单模型 AI 风险框架。OWASP LLM06:2025 首次定义过度授权风险类别,MCP 协议碎片化在 2029 年强制合规期限前为企业带来合规路径不确定性。
欧盟人工智能法案禁止工作场所和学校的情绪识别技术
欧盟人工智能法案第 5 条禁止在工作场所和教育环境中部署情绪识别系统,未来隐私论坛分析揭示了合规范围、豁免条款及人力资源技术和教育技术供应商面临的实施挑战。