Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
RAG não é o fim, a memória do AI Agent é a direção futura.
Analise esse processo evolutivo da forma mais simples:
RAG (2020-2023):
- Recuperar informações de uma só vez e gerar uma resposta
- Sem decisões, apenas extração e respostas
- Problema: Informações irrelevantes são frequentemente extraídas
RAG Agente:
- O agente decide se uma busca é necessária
- Qual fonte de dados o Agente seleciona para consultar
- O Agente verifica se os resultados são úteis
- Problema: Ainda somente leitura e incapaz de aprender a partir das interações
Memória de IA:
- Ler e escrever conhecimento externo
- Aprenda com conversas passadas
- Lembre-se das preferências do usuário, contexto histórico
- Alcançar a verdadeira personalização
Esse modelo mental é simples:
↳ RAG: Apenas leitura, única vez
↳ Agentic RAG: Somente leitura por chamadas de ferramenta
↳ Memória do Agente: Permite a leitura e escrita por meio de chamadas de ferramentas
O poder da memória dos agentes é que agora os agentes podem "lembrar" coisas – preferências do usuário, conversas passadas, datas importantes, tudo isso pode ser armazenado para interações futuras.
Isso desbloqueia possibilidades ainda maiores: aprendizado contínuo.
Em vez de ficarem congelados no momento do treinamento, os agentes podem construir conhecimento a partir de cada interação, melhorando ao longo do tempo sem necessidade de requalificação.
A memória é a ponte entre modelos estáticos e sistemas de IA verdadeiramente adaptativos.
Claro, nem tudo foi tranquilo.
A memória introduz desafios que o RAG nunca teve antes: danos à memória, decidir o que esquecer e gerenciar múltiplos tipos de memória (procedimental, episódico e semântico).
É difícil resolver esses problemas do zero.
Se você quer dar aos seus agentes memórias humanas, confira o Graphiti, um framework de código aberto para construir grafos de conhecimento em tempo real.
Link no próximo tweet!
O conteúdo foi traduzido do maravilhoso compartilhamento de @akshay_pachaar

11 horas atrás
RAG nunca foi o objetivo final.
A memória nos agentes de IA é para onde tudo está indo. Deixe-me explicar essa evolução da forma mais simples possível.
RAG (2020-2023):
- Recuperar informações uma vez, gerar resposta
- Sem tomada de decisão, apenas buscar e responder
- Problema: Frequentemente recupera contexto irrelevante
RAG Agente:
- O agente decide *se* a recuperação é necessária
- O agente escolhe *qual* fonte consultar
- O agente valida *se* resultados forem úteis
- Problema: Ainda somente leitura, não consegue aprender com interações
Memória de IA:
- Ler E escrever para conhecimento externo
- Aprende com conversas passadas
- Lembra das preferências do usuário, contexto passado
- Possibilita a personalização verdadeira
O modelo mental é simples:
↳ RAG: somente leitura, one-shot
↳ RAG agente: somente leitura via chamadas de ferramenta
↳ Memória do Agente: leitura-gravação via chamadas de ferramenta
Aqui está o que torna a memória de agente poderosa:
O agente agora pode "lembrar" coisas - preferências do usuário, conversas passadas, datas importantes. Tudo armazenado e recuperável para futuras interações.
Isso desbloqueia algo maior: aprendizado contínuo.
Em vez de ficarem congelados no momento do treinamento, os agentes agora podem acumular conhecimento a partir de cada interação. Eles melhoram com o tempo sem necessidade de retreinamento.
A memória é a ponte entre modelos estáticos e sistemas de IA verdadeiramente adaptativos.
Mas nem tudo é tranquilo.
A memória introduz novos desafios que a RAG nunca teve: corrupção da memória, decidir o que esquecer e gerenciar múltiplos tipos de memória (procedural, episódico e semântico).
Resolver esses problemas do zero é difícil. Se você quer dar aos seus agentes memória semelhante à humana, confira o Graphiti – um framework open-source para construir grafos de conhecimento em tempo real.
Você pode encontrar o link no próximo tweet!
2,24K
Melhores
Classificação
Favoritos

