"O futuro é IA misturada aos seus aplicativos e à sua vida. Mas se precisa de dados íntimos para te atender bem, você precisa de conhecimento zero e outras tecnologias de segurança envolvidas." - @DacEconomy, cofundador da @ProjectZKM Os grandes modelos de linguagem de hoje já estão nas abas do navegador, mas esse não é o objetivo final. Como diz Ming Guo, da ZKM, o objetivo é uma IA que rode dentro dos seus aplicativos e fluxos de trabalho diários, não uma caixa de chat separada para copiar dados. Para serem realmente úteis nesse nível, os sistemas de IA inevitavelmente precisarão de acesso a contextos privados: seu comportamento, histórico, preferências, até mesmo dados financeiros ou de saúde sensíveis. Isso cria um compromisso direto: • Mais contexto → melhor assistência em IA • Maior exposição de dados → maior risco de privacidade e segurança É aí que entram as provas de conhecimento zero e as zkVMs. Em vez de enviar dados brutos para um modelo ou para terceiros, o ZK permite que você: • Provar que um cálculo sobre seus dados foi feito corretamente, sem revelar os próprios dados. • Impor que um agente de IA siga certas regras ou políticas, sem expor os internos do modelo ou logs completos. • Anexar provas verificáveis às ações baseadas em IA em um app, para que outras partes possam confiar no resultado sem nunca verem suas entradas subjacentes. Em outras palavras, se a IA vai estar profundamente incorporada nos produtos e em nossas vidas, precisamos de camadas de segurança baseadas em ZK sob ela – zkVMs de uso geral como o Ziren do ZKM, e sistemas de prova em nível de aplicação que mantenham os benefícios da IA enquanto limitam o que ela pode ver e como pode ser usada. Assista ao painel completo sobre IA & Trabalho - Provando a Contribuição Humana: