Системы ИИ для обороны меняют национальную безопасность. Но люди хотят человеческого контроля и ответственности. Вот как выглядит оборонный ИИ, powered by DeepProve. 🧵
2/ В защиту, человеческий контроль не всегда работает. Исследование Министерства обороны США, например, показало, что в полетах БПЛА (дронов) "из 287 причин, связанных с 68 авариями, 65 процентов факторов были связаны с людьми."
3/ С системами защиты: → Информация/данные объемны → Люди испытывают предвзятость и стресс → Принятие решений замедляется → Ошибки происходят в большом масштабе
4/ Люди просто не могут сопоставить способности ИИ быстро анализировать данные и делать рекомендации по обороне для логистики, цепочек поставок, обнаружения угроз и многого другого. Нам нужна помощь от оборонного ИИ. Но нам нужно проверить его работу.
5/ Ввод: DeepProve — первая zkML (машинное обучение с нулевым раскрытием), которая доказывает полное вывод AI (GPT-2, скоро LLAMA и другие) Она может гарантировать, что защитный AI обеспечивает результаты, которые: • Точные • Безопасные • Масштабируемые • Подлежащие аудиту
49,8K