Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Connor Davis
Caramba... Este artigo pode ser a mudança mais importante na forma como usamos LLMs durante todo o ano.
"Grandes Modelos Causais a partir de Grandes Modelos de Linguagem."
Mostra que você pode desenvolver modelos causais completos diretamente de um LLM, não aproximações, nem gráficos causais reais, contrafactuais, intervenções e estruturas com restrições.
E a forma como eles fazem isso é impressionante:
Em vez de treinar um modelo causal especializado, eles interrogam o LLM como um cientista:
→ extrair um grafo causal candidato do texto
→ pedir ao modelo para verificar as dependências condicionais
→ detectar contradições
→ revisar a estrutura
→ testar previsões contrafactuais e intervencionistas
→ iterar até que o modelo causal se estabilize
O resultado é algo que nunca tivemos antes:
um sistema causal construído dentro do LLM usando seu próprio conhecimento latente do mundo.
Em domínios sintéticos, reais e complexos em benchmarks, esses LCMs superam os métodos clássicos de descoberta causal porque eles se baseiam no enorme conhecimento prévio do LLM, em vez de apenas correlações locais.
E o raciocínio contrafactual?
Surpreendentemente forte.
O modelo pode responder perguntas do tipo "e se" que algoritmos padrão falham completamente, simplesmente porque ele já "sabe" coisas sobre o mundo que esses algoritmos não conseguem inferir apenas com dados.
Este artigo sugere um futuro em que os LLMs não são apenas máquinas de padrões.
Eles se tornam sistemas de motores causais que formam, testam e refinam explicações estruturais da realidade.
Se isso crescer, todo campo que depende da economia da inferência causal, medicina, políticas e ciência está prestes a ser reescrito.
LLMs não vão simplesmente dizer o que acontece.
Eles vão te dizer o motivo.

27
Este artigo do DeepMind acabou de matar silenciosamente a mentira mais reconfortante sobre a segurança da IA.
A ideia de que segurança é sobre como os modelos se comportam na maior parte do tempo parece razoável. Também é errado no momento em que os sistemas escalam. DeepMind mostra por que as médias deixam de importar quando a implantação atinge milhões de interações.
O artigo reformula a segurança da AGI como um problema de distribuição. O que importa não é o comportamento típico. É a cauda. Fracassos raros. Casos extremos. Eventos de baixa probabilidade que parecem ignoráveis em testes, mas que se tornam inevitáveis no mundo real.
Benchmarks, red-teaming e demos mostram o meio. Deployment amostra tudo. Usuários estranhos, incentivos estranhos, ciclos de feedback hostis, ambientes que ninguém planejou. Em larga escala, esses casos deixam de ser raros. Eles são garantidos.
Aqui está a visão desconfortável: o progresso pode fazer os sistemas parecerem mais seguros enquanto silenciosamente os torna mais perigosos. Se a capacidade cresce mais rápido que o controle de cauda, falhas visíveis diminuem enquanto o risco catastrófico se acumula fora da tela.
Dois modelos podem parecer idênticos em média e ainda assim diferir muito no pior dos casos. As avaliações atuais não conseguem ver essa diferença. Estruturas de governança assumem que podem.
Você não pode certificar segurança com testes finitos quando o risco está na mudança de distribuição. Você nunca está testando o sistema que realmente implanta. Você está experimentando um futuro que não controla.
Esse é o verdadeiro punchline.
A segurança da AGI não é uma característica do modelo. É um problema de sistema. Contexto de implantação, incentivos, monitoramento e quanto de risco de cauda a sociedade tolera importam mais do que médias limpas.
Este artigo não tranquiliza. Isso remove a ilusão.
A questão não é se o modelo geralmente se comporta bem.
É o que acontece quando não acontece — e a frequência com que isso é permitido antes que a escala torne isso inaceitável.
Papel:

25
O estilo de incitação interna do Anthropic é completamente diferente do que a maioria das pessoas ensina.
Passei 3 semanas analisando a documentação oficial deles, a biblioteca de prompts e exemplos de APIs.
Apenas 2% dos usuários conhecem prompting estruturado em XML.
Aqui estão todos os segredos que extraí 👇

25
Melhores
Classificação
Favoritos
