“L'unico modo per garantire che un sistema AI operi correttamente è attraverso la sicurezza crittografica - le prove a conoscenza zero sull'inferenza sono la base dell'intelligenza verificabile.” - @Ismael_H_R, Fondatore di @lagrangedev All'evento Verifying Intelligence di @token2049, Ismael ha spiegato come DeepProve di Lagrange dimostri matematicamente che l'inferenza di un modello - il calcolo effettivo che genera un output - è stata eseguita correttamente, senza esporre i pesi del modello, i dati proprietari o gli input. Questo sposta l'AI da un approccio basato sulla fiducia a uno verificabile crittograficamente, dove correttezza, privacy e equità possono essere dimostrate piuttosto che assunte. ZK porta l'AI nello stesso cambiamento di paradigma che le blockchain hanno portato una volta alla finanza: da istituzioni fidate a matematica fidata. Questo è il modo in cui ci allontaniamo dall'AI “black-box” verso sistemi che possono essere verificati in modo indipendente - un passo essenziale verso un'autonomia sicura e auditabile. Guarda il pannello completo, in collaborazione con @googlecloud e @boundless_xyz, per scoprire come Lagrange e altri stanno definendo il livello di verifica per la prossima generazione di sistemi intelligenti: