Ranke-4B, lo llamaría el LLM ámbar del tiempo, con datos de entrenamiento bloqueados en una era. Un modelo entrenado solo con datos anteriores a 1913. El modelo aprendió la estructura del lenguaje, pero no sabe sobre las guerras mundiales, no sabe sobre la gripe española. ¿Sería más interesante hablar de temas de modernidad con un modelo tan grande?