„Przyszłość to AI wplecione w Twoje aplikacje i w Twoje życie. Ale jeśli potrzebuje intymnych danych, aby dobrze Ci służyć, potrzebujesz technologii zero-knowledge i innych zabezpieczeń wokół tego.” - @DacEconomy, współzałożyciel @ProjectZKM Dzisiejsze duże modele językowe już znajdują się w naszych kartach przeglądarki, ale to nie jest koniec gry. Jak mówi Ming Guo z ZKM, celem jest AI, które działa wewnątrz Twoich aplikacji i codziennych procesów, a nie osobne okno czatu, do którego kopiujesz dane. Aby być naprawdę użytecznym na tym poziomie, systemy AI będą musiały mieć dostęp do prywatnego kontekstu: Twojego zachowania, historii, preferencji, a nawet wrażliwych danych finansowych lub zdrowotnych. To stwarza bezpośredni kompromis: • Więcej kontekstu → lepsza pomoc AI • Więcej ujawnionych danych → wyższe ryzyko prywatności i bezpieczeństwa Tutaj wkraczają dowody zero-knowledge i zkVM. Zamiast wysyłać surowe dane do modelu lub strony trzeciej, ZK pozwala Ci: • Udowodnić, że obliczenie na Twoich danych zostało wykonane poprawnie, bez ujawniania samych danych. • Egzekwować, aby agent AI przestrzegał określonych zasad lub polityk, bez ujawniania wewnętrznych szczegółów modelu lub pełnych logów. • Dołączyć weryfikowalne dowody do działań napędzanych AI w aplikacji, aby inne strony mogły zaufać wynikowi, nie widząc nigdy Twoich podstawowych danych wejściowych. Innymi słowy, jeśli AI ma być głęboko osadzone w produktach i w naszym życiu, potrzebujemy warstw zabezpieczeń opartych na ZK - uniwersalnych zkVM, takich jak Ziren od ZKM, oraz systemów dowodowych na poziomie aplikacji, które zachowują korzyści płynące z AI, jednocześnie ograniczając to, co może zobaczyć i jak może być używane. Obejrzyj pełną dyskusję na temat AI i pracy - Udowadnianie wkładu ludzkiego: