Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

elvis
Construyendo con agentes de IA @dair_ai • Anterior: Meta AI, Galactica LLM, Elastic, PaperswithCode, PhD • Comparto ideas sobre cómo construir con LLMs y agentes ⬇️ de IA
Nueva encuesta sobre LLMs agentes.
La encuesta abarca tres categorías interconectadas: razonamiento y recuperación para una mejor toma de decisiones, modelos orientados a la acción para asistencia práctica y sistemas multiagente para la colaboración y el estudio del comportamiento social emergente.
Las aplicaciones clave incluyen el diagnóstico médico, la logística, el análisis financiero y el aumento de la investigación científica mediante agentes de rol autorreflexivos.
Cabe destacar que los LLMs agenticos ofrecen una solución a la escasez de datos de entrenamiento generando nuevos estados de entrenamiento durante la inferencia.
Papel:

7.17K
Google acaba de publicar una excelente guía sobre ingeniería de contexto eficaz para sistemas multiagente.
¡Prestad atención a este, desarrolladores de IA! (lo marca)
Aquí están mis principales conclusiones:
Las ventanas de contexto no son el cuello de botella. La ingeniería de contexto sí lo es.
Para problemas más complejos y de largo horizonte, la gestión de contexto no puede tratarse como un simple problema de "manipulación de cadenas".
El enfoque por defecto para manejar el contexto en los sistemas de agentes hoy en día sigue siendo meter todo en el prompt. Más historia, más fichas, más confusión. La mayoría de los equipos tratan el contexto como un problema de concatenación de cadenas.
Pero los volcados de contexto en bruto generan tres fallos críticos:
> explosión de costes por información repetitiva
> degradación del rendimiento por efectos de "pérdida en el medio"
> aumento en las tasas de alucinaciones cuando los agentes atribuyen erróneamente acciones a lo largo de un sistema
La gestión del contexto se convierte en una preocupación arquitectónica junto con el almacenamiento y la computación. Esto significa que las transformaciones explícitas reemplazan la concatenación de cadenas ad hoc. Los agentes reciben por defecto el contexto mínimo requerido y solicitan explícitamente información adicional a través de herramientas.
Parece que el Agent Development Kit de Google está reflexionando profundamente sobre la gestión del contexto. Introduce una arquitectura escalonada que trata el contexto como "una vista compilada sobre un sistema con estado" en lugar de una actividad de prompt-stuffing.
¿Qué parece esto?
1) Estructura: El modelo escalonado
El marco separa el almacenamiento de la presentación a lo largo de cuatro capas distintas:
1) Working Context gestiona vistas efímeras por invocación.
2) La sesión mantiene el registro de eventos duradero, capturando cada mensaje, llamada a herramientas y señal de control.
3) La memoria proporciona un conocimiento buscable y duradero, que sobrevive a sesiones individuales.
4) Los artefactos gestionan grandes cantidades de datos binarios mediante referencias versionadas en lugar de incrustación en línea.
¿Cómo funciona realmente la compilación de contexto? Funciona mediante flujos LLM ordenados con procesadores explícitos. Un procesador de contenidos realiza tres operaciones: selección filtra eventos irrelevantes, transformación aplana los eventos en objetos de contenido correctamente rodados, e inyección escribe el historial formateado en la solicitud del LLM.
El procesador de contenidos es esencialmente el puente entre una sesión y el contexto de trabajo.
La arquitectura implementa caché de prefijos dividiendo el contexto en prefijos estables (instrucciones, identidad, resúmenes) y sufijos variables (últimos turnos, salidas de herramientas). Además, una primitiva static_instruction garantiza la inmutabilidad de los prompts del sistema, preservando la validez de la caché entre invocaciones.
2) Gestión Agentica de lo que importa ahora
Una vez que entiendes la estructura, el reto principal pasa a ser relevante.
Tienes que averiguar qué debería estar en la ventana activa ahora mismo.
ADK responde a esto mediante la colaboración entre la arquitectura definida por el ser humano y la toma de decisiones agential. Los ingenieros definen dónde residen los datos y cómo se resumen. Los agentes deciden dinámicamente cuándo "alcanzar" bloques de memoria o artefactos específicos.
Para cargas útiles grandes, ADK aplica un patrón de asas. Un CSV de 5MB o una respuesta JSON masiva están en el almacenamiento de artefactos, no en el prompt. Los agentes solo ven referencias ligeras por defecto. Cuando se necesitan datos en bruto, llaman a LoadArtifactsTool para una expansión temporal. Una vez completada la tarea, el artefacto se descarga. Esto convierte el impuesto permanente de contexto en acceso preciso y bajo demanda.
Para el conocimiento a largo plazo, el MemoryService proporciona dos patrones de recuperación:
1) Recordo reactivo: los agentes reconocen lagunas de conocimiento y buscan explícitamente en el corpus.
2) Recuperación proactiva: los preprocesadores ejecutan búsqueda de similitud en la entrada del usuario, inyectando fragmentos relevantes antes de la invocación del modelo. Los agentes recuerdan exactamente los fragmentos necesarios para el paso actual en lugar de llevar todas las conversaciones que han tenido.
Todo esto me recuerda al enfoque escalonado de Claude Skills, que mejora el uso eficiente del contexto en Claude Code.
3) Contexto multiagente
Los sistemas de agente único sufren de sobrecarga de contexto. Al construir multiagentes, este problema se amplifica aún más, lo que fácilmente conduce a una "explosión de contexto" a medida que incorporas más subagentes.
Para que la coordinación multiagente funcione eficazmente, ADK proporciona dos patrones. Agentes-como-herramientas trata a agentes especializados como objetos de llamada que reciben indicaciones específicas sin una historia ancestral. Transferencia de Agentes, que permite transferencias de control total donde los subagentes heredan vistas de sesión. El parámetro include_contents controla el flujo del contexto, configurando por defecto el contexto de trabajo completo o proporcionando solo el nuevo prompt.
¿Qué previene la alucinación durante las entregas de agentes? La solución es la traducción de conversaciones. Los mensajes de Asistente Previos se convierten en contexto narrativo con etiquetas de atribuición. Las llamadas a herramientas de otros agentes están marcarizadas explícitamente. Cada agente asume el rol de Asistente sin atribuirse erróneamente la historia del sistema en general.
Por último, no necesitas usar Google ADK para aplicar estos conocimientos. Creo que esto podría aplicarse en todos los ámbitos al construir sistemas multiagente.
(imagen cortesía de Nano Banana Pro)

1.22K
EL CASO A FAVOR DEL ESCALADO AMBIENTAL //
El escalado del entorno puede ser tan importante como el escalado de modelos para IA agente.
La investigación actual en IA sugiere que construir un modelo de IA agente potente no se basa solo en un mejor razonamiento. También se trata de mejores entornos.
El enfoque por defecto para entrenar agentes de IA capaces hoy en día es recopilar trayectorias estáticas o demostraciones humanas. Esto requiere más datos, más ejemplos y más esfuerzo de anotación.
Pero los datos estáticos no pueden enseñar a tomar decisiones dinámicas. Los modelos entrenados de esta manera luchan con la naturaleza a largo plazo y orientada a objetivos de las tareas agentes reales.
Esta nueva investigación introduce Nex-N1, un marco que escala sistemáticamente la diversidad y complejidad de los entornos de entrenamiento interactivos en lugar de limitarse a escalar datos.
Las capacidades del agente surgen de la interacción, no de la imitación. En lugar de recopilar más demostraciones, construyeron infraestructura para generar automáticamente arquitecturas y flujos de trabajo diversos de agentes a partir de especificaciones en lenguaje natural.
El sistema tiene tres componentes. NexAU (Universo Agente) proporciona un marco de agentes universal que genera jerarquías de agentes complejas a partir de configuraciones simples. NexA4A (Agente por Agente) sintetiza automáticamente diversas arquitecturas de agentes a partir del lenguaje natural. NexGAP cierra la brecha entre simulación y realidad integrando herramientas MCP del mundo real para la síntesis de trayectorias fundamentadas.
Resultados:
- En el banco τ2, Nex-N1, basado en DeepSeek-V3.1, obtiene una puntuación de 80,2, superando el 42,8 del modelo base.
- En SWE-bench Verified, Qwen3-32B-Nex-N1 alcanza un 50,5% frente al 12,9% del modelo base.
- En BFCL v4 para uso de herramientas, Nex-N1 (65.3) supera a GPT-5 (61.6).
En evaluaciones humanas sobre el desarrollo de proyectos reales en 43 escenarios de codificación, Nex-N1 gana o empata con Claude Sonnet 4,5 en el 64,5% de los casos y contra GPT-5 en ~70% de los casos.
También construyeron un agente de investigación profunda en Nex-N1, logrando un 47,0% en el Índice de Referencia de Investigación Profunda, con capacidades para la generación visualizada de informes, incluyendo diapositivas y carteles de investigación.
Papel:

9.21K
Populares
Ranking
Favoritas

