Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
„Przyszłość to AI wplecione w Twoje aplikacje i w Twoje życie. Ale jeśli potrzebuje intymnych danych, aby dobrze Ci służyć, potrzebujesz technologii zero-knowledge i innych zabezpieczeń wokół tego.” - @DacEconomy, współzałożyciel @ProjectZKM
Dzisiejsze duże modele językowe już znajdują się w naszych kartach przeglądarki, ale to nie jest koniec gry. Jak mówi Ming Guo z ZKM, celem jest AI, które działa wewnątrz Twoich aplikacji i codziennych procesów, a nie osobne okno czatu, do którego kopiujesz dane.
Aby być naprawdę użytecznym na tym poziomie, systemy AI będą musiały mieć dostęp do prywatnego kontekstu: Twojego zachowania, historii, preferencji, a nawet wrażliwych danych finansowych lub zdrowotnych. To stwarza bezpośredni kompromis:
• Więcej kontekstu → lepsza pomoc AI
• Więcej ujawnionych danych → wyższe ryzyko prywatności i bezpieczeństwa
Tutaj wkraczają dowody zero-knowledge i zkVM. Zamiast wysyłać surowe dane do modelu lub strony trzeciej, ZK pozwala Ci:
• Udowodnić, że obliczenie na Twoich danych zostało wykonane poprawnie, bez ujawniania samych danych.
• Egzekwować, aby agent AI przestrzegał określonych zasad lub polityk, bez ujawniania wewnętrznych szczegółów modelu lub pełnych logów.
• Dołączyć weryfikowalne dowody do działań napędzanych AI w aplikacji, aby inne strony mogły zaufać wynikowi, nie widząc nigdy Twoich podstawowych danych wejściowych.
Innymi słowy, jeśli AI ma być głęboko osadzone w produktach i w naszym życiu, potrzebujemy warstw zabezpieczeń opartych na ZK - uniwersalnych zkVM, takich jak Ziren od ZKM, oraz systemów dowodowych na poziomie aplikacji, które zachowują korzyści płynące z AI, jednocześnie ograniczając to, co może zobaczyć i jak może być używane.
Obejrzyj pełną dyskusję na temat AI i pracy - Udowadnianie wkładu ludzkiego:
Najlepsze
Ranking
Ulubione

