可问责的自主性将成为在关键任务环境中运行的AI系统的标准 但我们所说的“可问责的自主性”是什么意思呢? 让我们来分析一下:🧵
2/ 自主系统在国防、航空航天和国家安全操作中正在加速发展。 无人机决定飞行路径,ISR系统融合传感器数据流,任务软件推荐行动。 但没有验证的自主性是失控的决策。
3/ 负责任的自主性意味着系统不仅仅是行动,它可以证明其行动是正确的。 不是“我们相信模型表现得当”,也不是“操作员事后审查了日志”。 而是,提供加密证据证明模型在未更改的数据上遵循了授权逻辑。
4/ 这就是拉格朗日的 DeepProve 的作用。 证明 ≠ 概率。 证明 = 数学确定性。 每个 AI 推理都可以发出一个证明,验证以下内容: • 模型正确执行 • 输入是可信的 • 输出符合约束 • 没有敏感数据被暴露
5/ 这对防御有什么重要性? 因为现代任务系统不再能够依赖隐含信任、手动审查或不可验证的机器学习管道。 可问责的自主性让操作员在机器速度下充满信心。 e.g. 一个模型进行分类或推荐 → DeepProve 附加一个加密证明 → 下游系统立即验证。
6/ 它还可以在不共享数据的情况下实现联盟信任,并增强生命周期完整性: • 合作伙伴可以在不交换遥测、模型权重或机密输入的情况下验证彼此的结果。 • 从开发 → 部署 → 事后评审,证明创建了一个防篡改的系统行为记录。
简单来说: 自主性 = 系统可以行动。 可问责的自主性 = 系统可以证明其行动是正确的。 这是防御AI的新兴标准,也是Lagrange与DeepProve所开创的基础。
98