¡Aquí hay un concepto erróneo común sobre RAG! La mayoría de las personas piensan que RAG funciona así: indexar un documento → recuperar ese mismo documento. Pero indexar ≠ recuperar. Lo que indexas no tiene que ser lo que alimentas al LLM. Una vez que entiendes esto, puedes construir sistemas RAG que realmente funcionen. Aquí hay 4 estrategias de indexación que separan un buen RAG de un gran RAG: 1) Indexación por fragmentos ↳ Este es el enfoque estándar. Divide los documentos en fragmentos, embébelos, almacénalos en una base de datos vectorial y recupera las coincidencias más cercanas. ↳ Simple y efectivo, pero fragmentos grandes o ruidosos perjudicarán tu precisión. 2) Indexación por sub-fragmentos ↳ Divide tus fragmentos en sub-fragmentos más pequeños para la indexación, pero recupera el fragmento completo para contexto. ↳ Esto es poderoso cuando una sola sección cubre múltiples conceptos. Obtienes una mejor coincidencia de consultas sin perder el contexto circundante que tu LLM necesita. 3) Indexación de consultas ↳ En lugar de indexar texto en bruto, genera preguntas hipotéticas que el fragmento podría responder. Indexa esas preguntas en su lugar. ↳ Las consultas de los usuarios se alinean naturalmente mejor con preguntas que con texto de documento en bruto. Esto cierra la brecha semántica entre lo que los usuarios preguntan y lo que has almacenado. ...