I sistemi di difesa AI stanno rimodellando la sicurezza nazionale. Ma le persone vogliono supervisione umana e responsabilità. Ecco come appare l'AI di difesa alimentata da DeepProve. 🧵
2/ In difesa, la supervisione umana non funziona sempre. Uno studio del Dipartimento della Difesa degli Stati Uniti, ad esempio, ha scoperto che nei voli UAV (drone) "tra 287 fattori causali attribuiti a 68 incidenti, il 65 percento dei fattori era associato agli esseri umani."
3/ Con i sistemi di difesa: → Le informazioni/dati sono voluminosi → Gli esseri umani sperimentano pregiudizi e stress → Il processo decisionale rallenta → Gli errori si verificano su larga scala
4/ Gli esseri umani semplicemente non possono eguagliare la capacità dell'AI di analizzare rapidamente i dati e fare raccomandazioni per la difesa in ambito logistico, nelle catene di approvvigionamento, nella rilevazione delle minacce e altro ancora. Abbiamo bisogno di un aiuto dall'AI per la difesa. Ma dobbiamo verificare il suo lavoro.
5/ Entra: DeepProve — il primo zkML (machine learning a conoscenza zero) per dimostrare un'inferenza AI completa (GPT-2, presto LLAMA e altro) Può garantire che l'AI di difesa fornisca risultati che sono: • Accurati • Sicuri • Scalabili • Auditabili
49,8K