"Budoucnost je AI začleněná do vašich aplikací a do vašeho života. Ale pokud potřebuje intimní data, která vám dobře slouží, potřebujete nulové znalosti a další bezpečnostní technologie kolem toho." - @DacEconomy, spoluzakladatel @ProjectZKM Dnešní velké jazykové modely už jsou v našich záložkách prohlížeče, ale to není konečný cíl. Jak říká Ming Guo ze ZKM, cílem je AI, která běží uvnitř vašich aplikací a každodenních pracovních postupů, ne samostatné chatovací okno, do kterého kopírujete data. Aby byly AI systémy skutečně užitečné na této úrovni, nevyhnutelně budou potřebovat přístup k soukromému kontextu: vašemu chování, historii, preferencím, dokonce i citlivým finančním či zdravotním údajům. To vytváří přímý kompromis: • Více kontextu → lepší AI pomoc • Větší expozice datům → vyšší riziko ochrany soukromí a bezpečnosti Právě zde přicházejí na řadu důkazy s nulovou znalostí a zkVM. Místo posílání surových dat modelu nebo třetí straně ZK umožňuje: • Dokažte, že výpočet vašich dat byl proveden správně, aniž byste odhalili samotná data. • Vynucovat, že AI agent dodržoval určitá pravidla nebo politiky, aniž by zveřejňoval interní části modelu nebo plné logy. • Připojte ověřitelné důkazy k akcím řízeným AI v aplikaci, aby ostatní mohli výsledku důvěřovat, aniž by kdy viděli vaše podkladové vstupy. Jinými slovy, pokud má být AI hluboce zakořeněná v produktech i v našich životech, potřebujeme pod ní bezpečnostní vrstvy založené na ZK – univerzální zkVM jako ZKMův Ziren a systémy důkazů na úrovni aplikací, které zachovávají výhody AI, ale omezují, co může vidět a jak ji lze použít. Sledujte celý panel o AI a práci – Dokazování lidského přínosu: