Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
"O futuro é IA misturada aos seus aplicativos e à sua vida. Mas se precisa de dados íntimos para te atender bem, você precisa de conhecimento zero e outras tecnologias de segurança envolvidas." - @DacEconomy, cofundador da @ProjectZKM
Os grandes modelos de linguagem de hoje já estão nas abas do navegador, mas esse não é o objetivo final. Como diz Ming Guo, da ZKM, o objetivo é uma IA que rode dentro dos seus aplicativos e fluxos de trabalho diários, não uma caixa de chat separada para copiar dados.
Para serem realmente úteis nesse nível, os sistemas de IA inevitavelmente precisarão de acesso a contextos privados: seu comportamento, histórico, preferências, até mesmo dados financeiros ou de saúde sensíveis. Isso cria um compromisso direto:
• Mais contexto → melhor assistência em IA
• Maior exposição de dados → maior risco de privacidade e segurança
É aí que entram as provas de conhecimento zero e as zkVMs. Em vez de enviar dados brutos para um modelo ou para terceiros, o ZK permite que você:
• Provar que um cálculo sobre seus dados foi feito corretamente, sem revelar os próprios dados.
• Impor que um agente de IA siga certas regras ou políticas, sem expor os internos do modelo ou logs completos.
• Anexar provas verificáveis às ações baseadas em IA em um app, para que outras partes possam confiar no resultado sem nunca verem suas entradas subjacentes.
Em outras palavras, se a IA vai estar profundamente incorporada nos produtos e em nossas vidas, precisamos de camadas de segurança baseadas em ZK sob ela – zkVMs de uso geral como o Ziren do ZKM, e sistemas de prova em nível de aplicação que mantenham os benefícios da IA enquanto limitam o que ela pode ver e como pode ser usada.
Assista ao painel completo sobre IA & Trabalho - Provando a Contribuição Humana:
Melhores
Classificação
Favoritos

