Ranke-4B, eu gostaria de chamá-lo de, âmbar do tempo LLM, com dados de treinamento bloqueados em uma era. Um modelo treinado apenas com dados anteriores a 1913. O modelo aprendeu a estrutura da linguagem, mas não sabe sobre as guerras mundiais, não sabe sobre a gripe espanhola. Conversar sobre temas de modernidade com um modelo tão grande, será que seria mais interessante?