KI-forsvarssystemer omformer nasjonal sikkerhet. Men folk ønsker menneskelig tilsyn og ansvarlighet. Slik ser forsvars-AI drevet av DeepProve ut. 🧵
2/ Til forsvar fungerer ikke alltid menneskelig tilsyn. En studie fra det amerikanske forsvarsdepartementet fant for eksempel at i UAV-flyvninger «blant 287 årsaksfaktorer tilskrevet 68 ulykker, var 65 prosent av faktorene assosiert med mennesker.»
3/ Med forsvarssystemer: → Intel/data er omfattende → Mennesker opplever skjevhet og stress → Beslutningstaking går tregere → Feil skjer i stor skala
4/ Mennesker kan rett og slett ikke matche AIs evne til raskt å analysere data og komme med forsvarsanbefalinger for logistikk, forsyningskjeder, trusseldeteksjon og mer. Vi trenger assistanse fra forsvars-AI. Men vi må verifisere at det fungerer.
5/ Inn kommer DeepProve — den første zkML (zero-knowledge machine learning) som beviser en full AI-inferens (GPT-2, snart LLAMA og flere) Den kan sikre at forsvars-AI leverer resultater som er: •Nøyaktig •Sikker •Skalerbar • Reviderbar
49,79K