Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Connor Davis
Caramba… este artigo pode ser a mudança mais importante na forma como usamos LLMs este ano inteiro.
"Modelos Causais Grandes a partir de Modelos de Linguagem Grandes."
Ele mostra que é possível crescer modelos causais completos diretamente de um LLM, não aproximações, não vibrações, gráficos causais reais, contrafactuais, intervenções e estruturas verificadas por restrições.
E a forma como eles fazem isso é incrível:
Em vez de treinar um modelo causal especializado, eles interrogam o LLM como um cientista:
→ extrair um gráfico causal candidato do texto
→ pedir ao modelo para verificar independências condicionais
→ detectar contradições
→ revisar a estrutura
→ testar contrafactuais e previsões intervencionais
→ iterar até que o modelo causal se estabilize
O resultado é algo que nunca tivemos antes:
um sistema causal construído dentro do LLM usando seu próprio conhecimento latente do mundo.
Através de benchmarks sintéticos, do mundo real, domínios bagunçados, esses LCMs superam métodos clássicos de descoberta causal porque se baseiam no enorme conhecimento prévio do LLM em vez de apenas correlações locais.
E o raciocínio contrafactual?
Surpreendentemente forte.
O modelo pode responder a perguntas de "e se" que algoritmos padrão falham completamente, simplesmente porque já "sabe" coisas sobre o mundo que esses algoritmos não conseguem inferir apenas a partir dos dados.
Este artigo sugere um futuro onde os LLMs não são apenas máquinas de padrões.
Eles se tornam motores causais, sistemas que formam, testam e refinam explicações estruturais da realidade.
Se isso escalar, cada campo que depende de inferência causal - economia, medicina, política, ciência - está prestes a ser reescrito.
Os LLMs não vão apenas te dizer o que acontece.
Eles vão te dizer por que.

36
Este artigo da DeepMind acabou de destruir silenciosamente a mentira mais reconfortante na segurança da IA.
A ideia de que a segurança diz respeito a como os modelos se comportam na maior parte do tempo parece razoável. Também está errada no momento em que os sistemas escalam. A DeepMind mostra por que as médias deixam de importar quando a implementação atinge milhões de interações.
O artigo reformula a segurança da AGI como um problema de distribuição. O que importa não é o comportamento típico. É a cauda. Falhas raras. Casos extremos. Eventos de baixa probabilidade que parecem ignoráveis em testes, mas se tornam inevitáveis no mundo real.
Benchmarks, red-teaming e demonstrações amostram todos o meio. A implementação amostra tudo. Usuários estranhos, incentivos peculiares, ciclos de feedback hostis, ambientes que ninguém planejou. Em escala, esses casos deixam de ser raros. Eles são garantidos.
Aqui está a percepção desconfortável: o progresso pode fazer os sistemas parecerem mais seguros enquanto os torna silenciosamente mais perigosos. Se a capacidade cresce mais rápido do que o controle da cauda, as falhas visíveis diminuem enquanto o risco catastrófico se acumula fora da tela.
Dois modelos podem parecer idênticos em média e ainda assim diferir drasticamente no comportamento em piores casos. As avaliações atuais não conseguem ver essa lacuna. Os frameworks de governança assumem que conseguem.
Você não pode certificar a segurança com testes finitos quando o risco reside na mudança de distribuição. Você nunca está testando o sistema que realmente implementa. Você está amostrando um futuro que não controla.
Essa é a verdadeira piada.
A segurança da AGI não é um atributo do modelo. É um problema de sistemas. O contexto de implementação, incentivos, monitoramento e quanto risco de cauda a sociedade tolera importam mais do que médias limpas.
Este artigo não tranquiliza. Ele remove a ilusão.
A questão não é se o modelo geralmente se comporta bem.
É o que acontece quando não se comporta — e com que frequência isso é permitido antes que a escala o torne inaceitável.
Artigo:

34
O estilo de prompting interno da Anthropic é completamente diferente do que a maioria das pessoas ensina.
Passei 3 semanas a analisar a sua documentação oficial, biblioteca de prompts e exemplos de API.
Apenas 2% dos utilizadores conhecem o prompting estruturado em XML.
Aqui estão todos os segredos que extraí 👇

31
Top
Classificação
Favoritos
