„Jedynym sposobem na zapewnienie, że system AI działa poprawnie, jest bezpieczeństwo kryptograficzne - dowody zerowej wiedzy na temat wnioskowania są fundamentem weryfikowalnej inteligencji.” - @Ismael_H_R, założyciel @lagrangedev Na wydarzeniu Verifying Intelligence podczas @token2049, Ismael wyjaśnił, jak DeepProve Lagrange’a matematycznie dowodzi, że wnioskowanie modelu - rzeczywiste obliczenie, które generuje wynik - zostało wykonane poprawnie, bez ujawniania wag modelu, danych własnościowych ani wejść. To przenosi AI z opartego na zaufaniu do kryptograficznie weryfikowalnego, gdzie poprawność, prywatność i sprawiedliwość mogą być udowodnione, a nie zakładane. ZK wprowadza AI w ten sam paradygmat, który kiedyś wprowadziły blockchainy do finansów: z zaufania do instytucji na zaufanie do matematyki. Tak właśnie odchodzimy od „czarnej skrzynki” AI do systemów, które mogą być niezależnie weryfikowane - kluczowy krok w kierunku bezpiecznej, audytowalnej autonomii. Obejrzyj pełną dyskusję, we współpracy z @googlecloud i @boundless_xyz, aby dowiedzieć się, jak Lagrange i inni definiują warstwę weryfikacji dla następnej generacji inteligentnych systemów: