Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
“O futuro é a IA misturada nas suas aplicações e na sua vida. Mas se precisar de dados íntimos para lhe servir bem, você precisa de tecnologias de segurança de conhecimento zero e outras envolvidas.” - @DacEconomy, Co-fundador da @ProjectZKM
Os grandes modelos de linguagem de hoje já estão nas nossas abas do navegador, mas isso não é o objetivo final. Como diz Ming Guo da ZKM, o objetivo é uma IA que funcione dentro das suas aplicações e fluxos de trabalho diários, não uma caixa de chat separada onde você copia dados.
Para ser genuinamente útil nesse nível, os sistemas de IA inevitavelmente precisarão de acesso a contextos privados: seu comportamento, histórico, preferências, até mesmo dados financeiros ou de saúde sensíveis. Isso cria um trade-off direto:
• Mais contexto → melhor assistência de IA
• Mais exposição de dados → maior risco de privacidade e segurança
É aqui que entram as provas de conhecimento zero e os zkVMs. Em vez de enviar dados brutos para um modelo ou um terceiro, o ZK permite que você:
• Prove que um cálculo sobre seus dados foi feito corretamente, sem revelar os dados em si.
• Faça cumprir que um agente de IA seguiu certas regras ou políticas, sem expor os internos do modelo ou logs completos.
• Anexe provas verificáveis a ações impulsionadas por IA em um aplicativo, para que outras partes possam confiar no resultado sem nunca ver suas entradas subjacentes.
Em outras palavras, se a IA vai estar profundamente embutida em produtos e em nossas vidas, precisamos de camadas de segurança baseadas em ZK sob ela - zkVMs de uso geral como o Ziren da ZKM, e sistemas de prova em nível de aplicação que mantenham os benefícios da IA enquanto restringem o que ela pode ver e como pode ser usada.
Assista ao painel completo sobre IA & Trabalho - Provando a Contribuição Humana:
Top
Classificação
Favoritos

