AI-försvarssystem omformar nationell säkerhet. Men folk vill ha mänsklig tillsyn och ansvarstagande. Så här ser försvars-AI:n som drivs av DeepProve ut. 🧵
2/ Till försvar fungerar mänsklig tillsyn inte alltid. En studie från USA:s försvarsdepartement fann till exempel att vid UAV-flygningar "bland 287 orsaksfaktorer som orsakades till 68 olyckor var 65 procent av faktorerna associerade med människor."
3/ Med försvarssystem: → Intel/data är omfattande → Människor upplever partiskhet och stress → Beslutsfattandet saktar ner → Fel uppstår i stor skala
4/ Människor kan helt enkelt inte matcha AI:s förmåga att snabbt analysera data och ge försvarsrekommendationer för logistik, försörjningskedjor, hotupptäckt och mer. Vi behöver hjälp från försvars-AI. Men vi måste verifiera dess funktion.
5/ Här kommer DeepProve in — den första zkML (zero-knowledge machine learning) som bevisar en fullständig AI-inferens (GPT-2, snart LLAMA och fler) Det kan säkerställa att försvars-AI levererar resultat som är: •Riktig •Säker •Skalbar •Granskningsbara
133