“O futuro é a IA misturada nas suas aplicações e na sua vida. Mas se precisar de dados íntimos para lhe servir bem, você precisa de tecnologias de segurança de conhecimento zero e outras envolvidas.” - @DacEconomy, Co-fundador da @ProjectZKM Os grandes modelos de linguagem de hoje já estão nas nossas abas do navegador, mas isso não é o objetivo final. Como diz Ming Guo da ZKM, o objetivo é uma IA que funcione dentro das suas aplicações e fluxos de trabalho diários, não uma caixa de chat separada onde você copia dados. Para ser genuinamente útil nesse nível, os sistemas de IA inevitavelmente precisarão de acesso a contextos privados: seu comportamento, histórico, preferências, até mesmo dados financeiros ou de saúde sensíveis. Isso cria um trade-off direto: • Mais contexto → melhor assistência de IA • Mais exposição de dados → maior risco de privacidade e segurança É aqui que entram as provas de conhecimento zero e os zkVMs. Em vez de enviar dados brutos para um modelo ou um terceiro, o ZK permite que você: • Prove que um cálculo sobre seus dados foi feito corretamente, sem revelar os dados em si. • Faça cumprir que um agente de IA seguiu certas regras ou políticas, sem expor os internos do modelo ou logs completos. • Anexe provas verificáveis a ações impulsionadas por IA em um aplicativo, para que outras partes possam confiar no resultado sem nunca ver suas entradas subjacentes. Em outras palavras, se a IA vai estar profundamente embutida em produtos e em nossas vidas, precisamos de camadas de segurança baseadas em ZK sob ela - zkVMs de uso geral como o Ziren da ZKM, e sistemas de prova em nível de aplicação que mantenham os benefícios da IA enquanto restringem o que ela pode ver e como pode ser usada. Assista ao painel completo sobre IA & Trabalho - Provando a Contribuição Humana: