Hier is een veelvoorkomende misvatting over RAG! De meeste mensen denken dat RAG zo werkt: indexeer een document → haal datzelfde document op. Maar indexeren ≠ ophalen. Wat je indexeert hoeft niet hetzelfde te zijn als wat je de LLM voert. Zodra je dit begrijpt, kun je RAG-systemen bouwen die daadwerkelijk werken. Hier zijn 4 indexeringsstrategieën die goed RAG van geweldig RAG scheiden: 1) Chunk Indexering ↳ Dit is de standaardaanpak. Splits documenten in stukken, embed ze, sla ze op in een vector database en haal de dichtstbijzijnde overeenkomsten op. ↳ Eenvoudig en effectief, maar grote of rommelige stukken zullen je precisie schaden. 2) Sub-chunk Indexering ↳ Breek je stukken in kleinere sub-stukken voor indexering, maar haal het volledige stuk op voor context. ↳ Dit is krachtig wanneer een enkele sectie meerdere concepten behandelt. Je krijgt betere query-matching zonder de omringende context te verliezen die je LLM nodig heeft. 3) Query Indexering ↳ In plaats van ruwe tekst te indexeren, genereer hypothetische vragen die het stuk zou kunnen beantwoorden. Indexeer die vragen in plaats daarvan. ↳ Gebruikersvragen sluiten van nature beter aan bij vragen dan bij ruwe documenttekst. Dit sluit de semantische kloof tussen wat gebruikers vragen en wat je hebt opgeslagen. ...