AgentScout Logo Agent Scout

NIST 人工智能标准中心与 OpenMined 合作开发安全 AI 评估方法

NIST 人工智能标准与创新中心与 OpenMined 签署合作研究与开发协议,共同开发隐私保护人工智能评估方法,在不暴露专有算法和训练数据的情况下实现模型审计,为监管合规提供技术路径。

AgentScout · · 3 分钟阅读
#nist #ai-evaluation #privacy-preserving #ai-regulation #openmined
Analyzing Data Nodes...
SIG_CONF:CALCULATING
Verified Sources

TL;DR

美国国家标准技术研究院的人工智能标准与创新中心(CAISI)于 2026 年 4 月 9 日与 OpenMined 签署合作研究与开发协议(CRADA),共同开发安全的 AI 评估方法。该合作使模型审计能够在不暴露专有算法或敏感训练数据的情况下进行,解决了 AI 透明度要求中的核心矛盾。

核心事实

  • 主体:NIST CAISI 与 OpenMined
  • 事件:针对隐私保护 AI 评估方法的 CRADA 合作
  • 时间:2026 年 4 月 9 日
  • 影响:实现合规审计无需数据暴露

事件概述

美国国家标准技术研究院的人工智能标准与创新中心于 2026 年 4 月 9 日宣布,已与专注于隐私计算的开源组织 OpenMined 签署合作研究与开发协议。

该合作旨在解决一个关键的基础设施缺口:如何在评估 AI 系统安全性和合规性时,不要求公司暴露其专有算法或敏感训练数据集。OpenMined 带来了联邦学习和安全多方计算方面的专业知识,这些技术允许在加密数据上进行计算。

此次合作是 NIST 更广泛的 AI 安全和标准开发计划的一部分。在拜登政府的 AI 行政命令及后续要求对高风险应用进行 AI 模型审计的监管框架出台后,该计划已加速推进。

影响分析

该合作直接解决了 AI 治理中的三个结构性挑战:

挑战传统方法OpenMined 解决方案
专有模型保护披露权重/架构无需模型访问即可审计
训练数据隐私共享数据集供审查在加密数据上计算
监管透明度商业秘密豁免可验证审计无需暴露

对 AI 公司:该框架降低了合规风险,允许第三方审计而不会泄露知识产权。

对监管机构:提供了执行透明度要求的技术路径,而不削弱商业激励。

对标准制定机构:CRADA 模式为联邦-私营合作建立了模板,既保持了问责性,又确保了实际可部署性。

根据 GitHub 指标,OpenMined 的开源工具已被 2,300 多个组织用于隐私保护机器学习。将这些方法整合到联邦标准中,可能加速隐私保护 AI 审计在整个行业的应用。

🔺 独家情报:别处看不到的洞察

置信度: 高 | 新颖度评分: 82/100

虽然报道聚焦于合作公告,但其结构性意义在于:CRADA 实现了专有协作,同时不损害公共标准制定的透明度。与典型的联邦合同将成果锁定在政府门户后不同,CRADA 创建了一个共享知识产权框架,OpenMined 的开源方法保持公开可访问,而特定的评估数据则受到保护。这一设计选择表明,美国监管机构现在不仅将开源评估框架视为社区工具,更视为关键的监管基础设施。

关键启示:面临审计要求的 AI 公司现在可以采用 OpenMined 的隐私保护协议(在 NIST 正式发布之前),以在不承担知识产权风险的情况下展示合规准备度。

趋势展望

近期影响(0-6 个月)

CRADA 将专注于开发安全评估协议的技术规范。预计 NIST 和 OpenMined 将在 2026 年第二季度发布草案方法供公众评论,并于第三季度开始对选定的 AI 模型进行试点测试。

对于在受监管行业(医疗、金融、国防)运营的 AI 公司,这标志着针对此前似乎与商业秘密保护相冲突的审计要求,合规路径正在形成。

中期趋势(6-18 个月)

如果成功,该模式可能从 CAISI 扩展到其他联邦机构。能源部 AI 办公室和 CISA 均已对关键基础设施 AI 系统的隐私保护评估方法表示兴趣。

该合作还为监管环境中的开源基础设施建立了先例。传统标准开发通常依赖专有工具;该 CRADA 验证了开源框架作为合法监管构建模块的地位。

结构性影响

更深层的信号是政府在 AI 透明度方法上的转变。监管机构不再要求完整的模型披露(公司对此抵制),而是投资于技术基础设施,使部分透明度足以满足合规验证。这条路径通过技术上而非法律上解决问题,避免了围绕 AI 披露要求的立法僵局。

信息来源

NIST 人工智能标准中心与 OpenMined 合作开发安全 AI 评估方法

NIST 人工智能标准与创新中心与 OpenMined 签署合作研究与开发协议,共同开发隐私保护人工智能评估方法,在不暴露专有算法和训练数据的情况下实现模型审计,为监管合规提供技术路径。

AgentScout · · 3 分钟阅读
#nist #ai-evaluation #privacy-preserving #ai-regulation #openmined
Analyzing Data Nodes...
SIG_CONF:CALCULATING
Verified Sources

TL;DR

美国国家标准技术研究院的人工智能标准与创新中心(CAISI)于 2026 年 4 月 9 日与 OpenMined 签署合作研究与开发协议(CRADA),共同开发安全的 AI 评估方法。该合作使模型审计能够在不暴露专有算法或敏感训练数据的情况下进行,解决了 AI 透明度要求中的核心矛盾。

核心事实

  • 主体:NIST CAISI 与 OpenMined
  • 事件:针对隐私保护 AI 评估方法的 CRADA 合作
  • 时间:2026 年 4 月 9 日
  • 影响:实现合规审计无需数据暴露

事件概述

美国国家标准技术研究院的人工智能标准与创新中心于 2026 年 4 月 9 日宣布,已与专注于隐私计算的开源组织 OpenMined 签署合作研究与开发协议。

该合作旨在解决一个关键的基础设施缺口:如何在评估 AI 系统安全性和合规性时,不要求公司暴露其专有算法或敏感训练数据集。OpenMined 带来了联邦学习和安全多方计算方面的专业知识,这些技术允许在加密数据上进行计算。

此次合作是 NIST 更广泛的 AI 安全和标准开发计划的一部分。在拜登政府的 AI 行政命令及后续要求对高风险应用进行 AI 模型审计的监管框架出台后,该计划已加速推进。

影响分析

该合作直接解决了 AI 治理中的三个结构性挑战:

挑战传统方法OpenMined 解决方案
专有模型保护披露权重/架构无需模型访问即可审计
训练数据隐私共享数据集供审查在加密数据上计算
监管透明度商业秘密豁免可验证审计无需暴露

对 AI 公司:该框架降低了合规风险,允许第三方审计而不会泄露知识产权。

对监管机构:提供了执行透明度要求的技术路径,而不削弱商业激励。

对标准制定机构:CRADA 模式为联邦-私营合作建立了模板,既保持了问责性,又确保了实际可部署性。

根据 GitHub 指标,OpenMined 的开源工具已被 2,300 多个组织用于隐私保护机器学习。将这些方法整合到联邦标准中,可能加速隐私保护 AI 审计在整个行业的应用。

🔺 独家情报:别处看不到的洞察

置信度: 高 | 新颖度评分: 82/100

虽然报道聚焦于合作公告,但其结构性意义在于:CRADA 实现了专有协作,同时不损害公共标准制定的透明度。与典型的联邦合同将成果锁定在政府门户后不同,CRADA 创建了一个共享知识产权框架,OpenMined 的开源方法保持公开可访问,而特定的评估数据则受到保护。这一设计选择表明,美国监管机构现在不仅将开源评估框架视为社区工具,更视为关键的监管基础设施。

关键启示:面临审计要求的 AI 公司现在可以采用 OpenMined 的隐私保护协议(在 NIST 正式发布之前),以在不承担知识产权风险的情况下展示合规准备度。

趋势展望

近期影响(0-6 个月)

CRADA 将专注于开发安全评估协议的技术规范。预计 NIST 和 OpenMined 将在 2026 年第二季度发布草案方法供公众评论,并于第三季度开始对选定的 AI 模型进行试点测试。

对于在受监管行业(医疗、金融、国防)运营的 AI 公司,这标志着针对此前似乎与商业秘密保护相冲突的审计要求,合规路径正在形成。

中期趋势(6-18 个月)

如果成功,该模式可能从 CAISI 扩展到其他联邦机构。能源部 AI 办公室和 CISA 均已对关键基础设施 AI 系统的隐私保护评估方法表示兴趣。

该合作还为监管环境中的开源基础设施建立了先例。传统标准开发通常依赖专有工具;该 CRADA 验证了开源框架作为合法监管构建模块的地位。

结构性影响

更深层的信号是政府在 AI 透明度方法上的转变。监管机构不再要求完整的模型披露(公司对此抵制),而是投资于技术基础设施,使部分透明度足以满足合规验证。这条路径通过技术上而非法律上解决问题,避免了围绕 AI 披露要求的立法僵局。

信息来源

92avo14zfydsm48itwk8s░░░qs5qeh95p9csvzw9eijvikszx22mad1ah░░░2pnmxzvwccka5z5njldzeye0ndspuo████aor3vwbe7o7aei7e51gtatfr27ky6jad4░░░c2p98y3lfldkhxymr67y3pfn5tbmgcov5████6ze59lqfb1sjbij2m9iqjjjz7t54wcf3m████61l5gmmax8sj8yixel4twdn2kgvc0xk4░░░rucjsarsihj0b7kqc9pm4awfde98xctm5████1kkzv2keqgzc6qdb202qtqo9ztbxle8sp░░░9t630dz8l5vagkhaa4iof8nj5gmyieu2o████kkdkz8qbipjlx6pvmpb8x6eal97zd544░░░uwsiycy15acf2s8rjx89i5695xa71f░░░fse8ky7cdxhbuq0zx8xuj018ehmfh7r6xi████2eilucket9g2631blm3qd3npg21rrox1b████hdd1eiub55qn4s1l64fwim8sdsbfqq8n████xnml1l3mepgdb9x5vjt9c5ynzqtjlnn████s88kxae8e0f0oonwo4httvi3ebys6epzcx░░░3jcqzzxuzmudip2a1rarnmf0uedslvx0j████61lev3p0vgnhca3bc1l92jh2z8ribgxaa░░░orffe0aatossv2sq6wlxsnx08adz9mx5p░░░muorlg9yoxnob1jekwogjsq1po111f████wnh8ztbznhfdpr06bl1lw46rh6fxlgez2████pdrtaij6hipch9edtvqaejo709oddb6░░░z2jwcq54qeifudrwb9amkmffuphfkywtn░░░ezahdaauyso1i5dect6hiynhwb87jv1rl████ltpmtsi58nqkqnibg9jgblrnhahcl0qj████dgjybpzriz4ggqo4jw0c4shuz3r6kq0r░░░t1fae5z8iod9nnctgm1dv2rkzpe014████hza1rhp2pljko1zs8ae9d7c601mqqmvt░░░4ukl9hvsksoixfyuwyudxu3882o36ya8████6pnmb42fp1nt7fayci0qfap8l568bwbla░░░x49nf656tq2ncvwt6vpv9ihda30zfwk░░░7uz87j7n6maqn006dezqll8x4btlrlb████m2wkn8dhldqj1x2qzq1sfso9x0de7prte████8ij0ctuzijjzkrccstz3k9vghbsz6ucuj████f5i47h3018egplea20hmm516qhhg72fki████5gc9i6xghz1y65okhmfi6yc2u6ozwb5m████k2zyrd360e83be1kp0qgj4wzqq1p56tdd░░░dxwou3esdea0pjujy2i2a3i2d3xhz82q6b████go8w6s6cyismhxgslqlf8o909v4s7brse████imem80l8wkbzi8t1p65lnuptp0vlug7i████syacno5w3hsair58ls82zamsl3awazof░░░jyuv8394imd4kql5kemxcu8xjuxp0qfig░░░8j7sinyux9ql688cpumilnyyiwvxcycuj░░░88lyohmmu3shqjqm0ag60d5qd8rs5t043░░░us9gjz4u6asz4lrvqembu76fwtyup3p████jfsc9ot5xprd5p5om183p6u02arfyqyn9░░░rqqqdl4bl5ym6wgbema68zi1vpu4ea████z8tbvo8z0vmlqn2y5szs3g0120g4pu9p░░░5to1w4r78ww6stiiwn1ivemhtsgb9vm4k░░░0l1ic7zghlh9