Ranke-4B, me gustaría llamarlo, es un LLM ámbar en el tiempo con datos de entrenamiento encerrados en una época. Modelos entrenados únicamente con datos anteriores a 1913. El modelo ha aprendido la estructura del lenguaje, pero no conoce la guerra mundial ni la gripe española, ¿sería más interesante hablar de modernidad con un modelo tan grande?