os meus 5 principais truques para reduzir a alucinação do modelo: 1. ao reunir informações, peça ao ai para marcar as fontes - e separar a coleta de dados da formulação de conclusões 2. sempre que o ai chegar a uma conclusão, pergunte se é baseada em dados históricos, inferência estatística ou raciocínio puramente linguístico 3. use pelo menos dois modelos de ai para verificar os resultados - li recentemente sobre a configuração do conselho llm onde os modelos debatem entre si para obter melhores respostas (ideia realmente interessante - ainda preciso testá-la eu mesmo) 4. peça argumentos em ambos os extremos de uma posição, depois decida onde você se posiciona no espectro 5. pergunte ao ai: suponha que o que você acabou de dizer está errado - onde é mais provável que esteja errado? o ai é poderoso - mas o seu julgamento ainda é o modelo final.