AI-verdedigingssystemen herdefiniëren de nationale veiligheid. Maar mensen willen menselijke controle en verantwoordelijkheid. Dit is hoe defensie-AI aangedreven door DeepProve eruitziet. 🧵
2/ Ter verdediging, menselijke controle werkt niet altijd. Een studie van het Amerikaanse Ministerie van Defensie vond bijvoorbeeld dat in UAV (drones) vluchten "van de 287 oorzakelijke factoren die aan 68 ongevallen werden toegeschreven, 65 procent van de factoren verband hield met mensen."
3/ Met defensiesystemen: → Intel/data is omvangrijk → Mensen ervaren vooroordelen en stress → Besluitvorming vertraagt → Fouten gebeuren op grote schaal
4/ Mensen kunnen simpelweg niet concurreren met de mogelijkheid van AI om snel gegevens te analyseren en aanbevelingen te doen voor defensie, logistiek, toeleveringsketens, dreigingsdetectie en meer. We hebben een assistentie van defensie-AI nodig. Maar we moeten haar werk verifiëren.
5/ Invoeren: DeepProve — de eerste zkML (zero-knowledge machine learning) om een volledige AI-inferentie te bewijzen (GPT-2, binnenkort LLAMA en meer) Het kan ervoor zorgen dat defensie-AI resultaten levert die: • Nauwkeurig • Veilig • Schaalbaar • Controleerbaar zijn
49,8K