Systemy obrony AI przekształcają bezpieczeństwo narodowe. Jednak ludzie chcą ludzkiego nadzoru i odpowiedzialności. Oto jak wygląda AI obrony zasilana przez DeepProve. 🧵
2/ W obronie, nadzór ludzki nie zawsze działa. Na przykład, badanie przeprowadzone przez Departament Obrony USA wykazało, że w lotach UAV (dronów) „spośród 287 czynników przyczynowych przypisanych 68 wypadkom, 65 procent czynników było związanych z ludźmi.”
3/ Z systemami obronnymi: → Dane/ informacje są obszerne → Ludzie doświadczają uprzedzeń i stresu → Proces podejmowania decyzji zwalnia → Błędy występują na dużą skalę
4/ Ludzie po prostu nie mogą dorównać zdolności AI do szybkiej analizy danych i formułowania rekomendacji obronnych dotyczących logistyki, łańcuchów dostaw, wykrywania zagrożeń i nie tylko. Potrzebujemy wsparcia od AI w obronie. Ale musimy zweryfikować jego pracę.
5/ Wejście: DeepProve — pierwsze zkML (uczenie maszynowe z zerową wiedzą), które udowadnia pełną inferencję AI (GPT-2, wkrótce LLAMA i więcej) Może zapewnić, że AI obronne dostarcza wyniki, które są: • Dokładne • Bezpieczne • Skalowalne • Możliwe do audytu
49,8K