Ranke-4B, como eu gostaria de chamar, é um LLM âmbar do tempo com dados de treinamento travados em uma era. Modelos treinados apenas com dados anteriores a 1913. O modelo aprendeu a estrutura da linguagem, mas não conhece a guerra mundial nem a gripe espanhola; seria mais interessante falar sobre modernidade com um modelo tão grande?