AI 防禦系統正在重塑國家安全。 但人們希望有人工監督和問責。 這就是由 DeepProve 提供動力的防禦 AI 的樣子。 🧵
2/ 在辯護中,人類監督並不總是有效。 例如,美國國防部的一項研究發現,在無人機(UAV)飛行中,“在287個歸因於68起事故的因果因素中,65%的因素與人類有關。”
3/ 有關防禦系統: → 資訊/數據量龐大 → 人類會經歷偏見和壓力 → 決策速度變慢 → 錯誤在大規模上發生
4/ 人類根本無法與AI快速分析數據並為物流、供應鏈、威脅檢測等提供防禦建議的能力相匹敵。 我們需要防禦AI的協助。 但我們需要驗證它的工作。
5/ 進入:DeepProve — 第一個 zkML(零知識機器學習)用於證明完整的 AI 推理(GPT-2,將來還有 LLAMA 等) 它可以確保防禦 AI 提供的結果是: • 精確 • 安全 • 可擴展 • 可審計
49.8K