Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
¡Aquí hay un concepto erróneo común sobre RAG!
La mayoría de las personas piensan que RAG funciona así: indexar un documento → recuperar ese mismo documento.
Pero indexar ≠ recuperar.
Lo que indexas no tiene que ser lo que alimentas al LLM.
Una vez que entiendes esto, puedes construir sistemas RAG que realmente funcionen.
Aquí hay 4 estrategias de indexación que separan un buen RAG de un gran RAG:
1) Indexación por fragmentos
↳ Este es el enfoque estándar. Divide los documentos en fragmentos, embébelos, almacénalos en una base de datos vectorial y recupera las coincidencias más cercanas.
↳ Simple y efectivo, pero fragmentos grandes o ruidosos perjudicarán tu precisión.
2) Indexación por sub-fragmentos
↳ Divide tus fragmentos en sub-fragmentos más pequeños para la indexación, pero recupera el fragmento completo para contexto.
↳ Esto es poderoso cuando una sola sección cubre múltiples conceptos. Obtienes una mejor coincidencia de consultas sin perder el contexto circundante que tu LLM necesita.
3) Indexación de consultas
↳ En lugar de indexar texto en bruto, genera preguntas hipotéticas que el fragmento podría responder. Indexa esas preguntas en su lugar.
↳ Las consultas de los usuarios se alinean naturalmente mejor con preguntas que con texto de documento en bruto. Esto cierra la brecha semántica entre lo que los usuarios preguntan y lo que has almacenado.
...

Parte superior
Clasificación
Favoritos

