Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Connor Davis
Mierda... Este artículo podría ser el cambio más importante en cómo usamos los LLMs durante todo el año.
"Grandes modelos causales a partir de grandes modelos de lenguaje."
Muestra que puedes desarrollar modelos causales completos directamente a partir de un LLM, no aproximaciones, ni de vibraciones, ni de gráficos causales reales, contrafactuales, intervenciones y estructuras controladas por restricciones.
Y la forma en que lo hacen es una locura:
En lugar de entrenar un modelo causal especializado, interrogan al LLM como un científico:
→ extraer un grafo causal candidato del texto
→ pide al modelo que compruebe las dependencias condicionales
→ detectar contradicciones
→ revisar la estructura
→ poner a prueba los contrafactuales y las predicciones intervencionistas
→ iterar hasta que el modelo causal se estabilice
El resultado es algo que nunca antes habíamos tenido:
un sistema causal construido dentro del LLM usando su propio conocimiento latente del mundo.
En dominios sintéticos, reales y complicados en benchmarks, estos LCMs superan a los métodos clásicos de descubrimiento causal porque extraen del enorme conocimiento previo del LLM en lugar de solo correlaciones locales.
¿Y el razonamiento contrafactual?
Sorprendentemente fuerte.
El modelo puede responder preguntas de "¿y si" que los algoritmos estándar fallan completamente, simplemente porque ya "sabe" cosas sobre el mundo que esos algoritmos no pueden inferir solo con los datos.
Este artículo insinúa un futuro en el que los LLM no sean solo máquinas de patrones.
Se convierten en sistemas de motores causales que forman, prueban y refinan explicaciones estructurales de la realidad.
Si esto escala, todos los campos que dependen de la inferencia causal, economía, medicina, política y ciencia están a punto de ser reescritos.
Los LLM no solo te dirán lo que pasa.
Te dirán por qué.

26
Este artículo de DeepMind acaba de matar silenciosamente la mentira más reconfortante sobre la seguridad de la IA.
La idea de que la seguridad se trata de cómo se comportan los modelos la mayor parte del tiempo suena razonable. También es incorrecto en el momento en que los sistemas escalan. DeepMind muestra por qué los promedios dejan de importar cuando el despliegue alcanza millones de interacciones.
El artículo replantea la seguridad AGI como un problema de distribución. Lo que importa no es el comportamiento típico. Es la cola. Fracasos raros. Casos límite. Eventos de baja probabilidad que parecen ignorables en los exámenes pero que se vuelven inevitables en el mundo real.
Los benchmarks, el red-team y las demos muestran el centro. El despliegue muestra todo. Usuarios extraños, incentivos estraños, bucles de retroalimentación hostiles, entornos que nadie había planeado. A gran escala, esos casos dejan de ser raros. Están garantizados.
Aquí va la incómoda conclusión: el progreso puede hacer que los sistemas parezcan más seguros mientras que silenciosamente los hace más peligrosos. Si la capacidad crece más rápido que el control de cola, los fallos visibles disminuyen mientras que el riesgo catastrófico se acumula fuera de pantalla.
Dos modelos pueden parecer idénticos en promedio y aun así diferir enormemente en el peor de los casos. Las evaluaciones actuales no pueden ver esa diferencia. Los marcos de gobernanza asumen que sí pueden.
No se puede certificar la seguridad con pruebas finitas cuando el riesgo reside en el cambio de distribución. Nunca estás probando el sistema que realmente despliegas. Estás probando un futuro que no controlas.
Ese es el verdadero remate.
La seguridad por AGI no es un atributo del modelo. Es un problema de sistemas. El contexto de despliegue, los incentivos, la monitorización y cuánto riesgo de cola tolera la sociedad importan más que las medias limpias.
Este artículo no tranquiliza. Elimina la ilusión.
La cuestión no es si el modelo suele comportarse bien.
Es lo que ocurre cuando no lo hace — y la frecuencia con la que eso se permite antes de que la escala lo haga inaceptable.
Papel:

24
El estilo de incitación interna de Anthropic es completamente diferente de lo que enseña la mayoría de la gente.
Pasé 3 semanas analizando su documentación oficial, la biblioteca de prompts y ejemplos de API.
Solo el 2% de los usuarios conoce el prompting estructurado en XML.
Aquí tienes todos los secretos que he extraído 👇

24
Populares
Ranking
Favoritas
