Eu finalmente entendi por que os re-rankers são tão poderosos quando entendi a principal diferença entre bi- e cross-encoders. Além disso, encontrei uma maneira de combinar seus poderes usando uma arquitetura unificada. Deixe-me explicar: RAG é 80% de recuperação e 20% de geração. Portanto, se o RAG não estiver funcionando, provavelmente é um problema de recuperação. É exatamente por isso que acertar sua arquitetura de recuperação é tão importante - e começa com a compreensão dessas duas (na verdade, três) abordagens de codificação. (consulte o visual abaixo enquanto lê) 1️⃣ Bi-encoders Os bicodificadores (a espinha dorsal da pesquisa vetorial) processam consultas e documentos separadamente. - As incorporações de documentos são pré-computadas - A consulta é incorporada no momento da pesquisa Isso torna os bi-encoders perfeitos para recuperação inicial: - extremamente rápido - funciona em escala - perde informações contextuais importantes 2️⃣ Codificadores cruzados Os codificadores cruzados adotam uma abordagem completamente diferente para a reclassificação. Eles processam a consulta e cada documento como uma única unidade. - Combinar consulta com documento ([CLS] Consulta [SEP] Documento [SEP]) - Percorra o modelo juntos para atenção cruzada total Isso torna os codificadores cruzados ideais para o segundo estágio: - captura relações semânticas para melhor precisão - mas muito mais lento e com muitos recursos para grandes coleções Agora, e se pudermos combinar o melhor dos dois mundos! 3️⃣ ColBERT O ColBERT reúne o poder dos codificadores cruzados e a escalabilidade dos bicodificadores. - Codificar consultas e documentos separadamente - Criar matriz de interação com pontuações de similaridade entre todos os pares de token de documento de consulta - Obter pontuação máxima para cada token de consulta em tokens de documento - Somar as pontuações máximas para a pontuação final correspondente _____ Isso é tudo! Se você achou perspicaz, compartilhe novamente com sua rede. Encontre-me → @akshay_pachaar ✔️ Para obter mais insights e tutoriais sobre LLMs, agentes de IA e aprendizado de máquina!
46,69K