Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Um artigo incrível da Universidade de Stanford sobre colaboração latente acaba de ser publicado e muda a forma como pensamos sobre inteligência multi-agente para sempre.
"Colaboração Latente em Sistemas Multi-Agentes" mostra que os agentes podem coordenar-se sem canais de comunicação, papéis predefinidos ou quaisquer instruções explícitas de trabalho em equipe. Eles inventam sinais internos ocultos dentro das suas redes de políticas que apenas outros agentes entendem.
É impressionante ver o que emerge:
• Agentes dividindo tarefas sem qualquer orientação
• Papéis formando-se silenciosamente dentro do espaço latente
• Agentes fracos recuando enquanto os mais fortes assumem o controle
• Sinais de negociação ocultos que nunca aparecem nas ações observáveis
• Estratégias de coordenação que mudam à medida que o ambiente muda
O que parece um comportamento simples do lado de fora é, na verdade, uma linguagem secreta inteira formando-se dentro dos modelos.
A parte mais chocante?
Eles testaram cenários sem dar aos agentes quaisquer ferramentas de comunicação… e a colaboração ainda assim surgiu. Puramente da pressão de treinamento e recompensas compartilhadas.
Este é um vislumbre de para onde a IA agente está indo:
Equipes que coordenam-se instintivamente em vez de mecanicamente.
Agentes que cooperam da maneira que os sistemas biológicos não fazem porque são instruídos a fazê-lo, mas porque a estratégia aparece naturalmente.
Se você se importa com sistemas autônomos, aprendizado por reforço ou IA multi-agente… este é um artigo que você deve ler.

Top
Classificação
Favoritos

