Các hệ thống phòng thủ AI đang định hình lại an ninh quốc gia. Nhưng mọi người muốn có sự giám sát và trách nhiệm của con người. Đây là hình ảnh của AI phòng thủ được cung cấp bởi DeepProve. 🧵
2/ Trong phòng thủ, sự giám sát của con người không phải lúc nào cũng hiệu quả. Một nghiên cứu của Bộ Quốc phòng Hoa Kỳ, chẳng hạn, đã phát hiện ra rằng trong các chuyến bay UAV (máy bay không người lái) "trong số 287 yếu tố nguyên nhân được quy cho 68 vụ tai nạn, 65% các yếu tố liên quan đến con người."
3/ Với các hệ thống phòng thủ: → Dữ liệu/intel rất lớn → Con người trải qua thiên kiến và căng thẳng → Quyết định bị chậm lại → Lỗi xảy ra ở quy mô lớn
4/ Con người đơn giản không thể so sánh với khả năng của AI trong việc phân tích dữ liệu nhanh chóng và đưa ra các khuyến nghị về phòng thủ cho logistics, chuỗi cung ứng, phát hiện mối đe dọa, và nhiều hơn nữa. Chúng ta cần sự hỗ trợ từ AI phòng thủ. Nhưng chúng ta cần xác minh công việc của nó.
5/ Nhập: DeepProve — zkML đầu tiên (học máy không biết) để chứng minh một suy diễn AI đầy đủ (GPT-2, sắp tới là LLAMA và nhiều hơn nữa) Nó có thể đảm bảo AI phòng thủ mang lại kết quả là: • Chính xác • An toàn • Có thể mở rộng • Có thể kiểm toán
49,79K