Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
Construyendo @EurekaLabsAI. Anteriormente Director de IA @ Tesla, equipo fundador @ OpenAI, CS231n/PhD @ Stanford. Me gusta entrenar grandes redes neuronales profundas.
Me encanta la expresión "alimento para el pensamiento" como una capacidad cognitiva concreta y misteriosa que experimentamos los humanos, pero para la que los LLM no tienen equivalente.
Definición: "algo en lo que merezca la pena pensar o considerar, como una comida mental que nutra tu mente con ideas, ideas o cuestiones que requieren una reflexión más profunda. Se utiliza para temas que desafían tu perspectiva, ofrecen nuevas comprensiones o te hacen reflexionar sobre cuestiones importantes, actuando como estimulación intelectual."
Así que, en el lenguaje de LLM, es una secuencia de tokens de tal manera que, cuando se usan como prompt para la cadena de pensamiento, las muestras resultan gratificantes de revisar, mediante alguna función de recompensa intrínseca aún no descubierta. Obsesionado con la forma que toma. Algo para reflexionar.
96
Publicación rápida y nueva: Auto-calificación de discusiones de Hacker News de hace una década con perspectiva retrospectiva
Tomé todo el artículo de portada 930 de Hacker News + discusión de diciembre de 2015 y pedí a la API de Pensamiento de GPT 5.1 que hiciera un análisis retrospectivo para identificar los comentarios más o menos premonitorios. Esto tardó ~3 horas en hacer vibe code y ~1 hora y 60 dólares en funcionar. La idea surgió ayer en el artículo de la Familia Nacional, donde se pidió a Gemini 3 que alucinara la portada de la Familia Negra una década después.
De forma más general:
1. El análisis en retrospectiva siempre me ha fascinado como una forma de entrenar tu modelo de predicción hacia adelante, por lo que leer los resultados es realmente interesante y
2. Vale la pena contemplar cómo sería cuando los megaminds LLM del futuro pueden hacer este tipo de trabajo mucho más barato, rápido y mejor. Cada dato que aportes a internet puede (y probablemente será) examinado con gran detalle si es "gratis". De ahí también mi tuit anterior de hace tiempo: "sed buenos, los futuros LLMs están vigilando".
Enhorabuena a las 10 principales cuentas pcwalton, tptacek, paulmd, cstross, greglindahl, moxie, hannob, 0xcde4c3db, Manishearth y johncolanduoni - GPT 5.1. Thinking encontró que tus comentarios fueron los más perspicaces y visionarios de todos los comentarios de HN en diciembre de 2015.
Enlaces:
- Muchos más detalles en mi entrada del blog
- Repositorio en GitHub del proyecto si quieres jugar
- Las páginas de resultados reales para tu placer lector

590
En el episodio de hoy de programación de horror...
En la documentación Python de random.seed() definitivamente, nos dicen
"Si a es un int, se usa directamente." [1]
Pero si semillas con 3 o -3, en realidad obtienes exactamente el mismo objeto de azar, produciendo las mismas corrientes. (Hoy he aprendido). En nanochat estaba usando el signo como una forma (que me parecía) ingeniosa para obtener diferentes secuencias de RNG para divisiones de tren/prueba. De ahí bug bastante fuerte porque ahora train=prueba.
Encontré el código CPython responsable en cpython/Modules/_randommodule.c [2], donde en la línea 321 vemos en un comentario:
"Este algoritmo depende de que el número no esté firmado. Así que: si el arg es un PyLong, usa su valor absoluto." seguido de
n = PyNumber_Absolute(arg);
que explícitamente llama a abs() en tu semilla para hacerla positiva, descartando el bit de signo.
Pero este comentario también es incorrecto o engañoso. En el fondo, Python llama al algoritmo Mersenne Twister MT19937, que en el caso general tiene un estado de 19937 bits (no nulo). Python toma tu int (u otros objetos) y "distribuye" esa información entre estos bits. En principio, el bit de signo podría haberse utilizado para aumentar los bits de estado. No hay nada en el algoritmo que "dependa de que el número no esté firmado". Se decidió no incorporar la parte de signo (lo cual, en mi opinión, fue un error). Un ejemplo trivial podría haber sido mapear n -> 2*abs(n) + int(n < 0).
Finalmente, esto nos lleva al contrato de random de Python, que tampoco está completamente detallado en la documentación. El contrato mencionado es el siguiente:
Misma semilla = > misma secuencia.
Pero no se garantiza que diferentes semillas produzcan distintas secuencias. Así que, en principio, Python no promete que, por ejemplo, seed(5) y seed(6) sean flujos de RNG diferentes. (Aunque esto se asume implícitamente en muchas aplicaciones.) De hecho, vemos que seed(5) y seed(-5) son corrientes idénticas. Y probablemente no deberías usarlos para separar tus comportamientos de entrenamiento/prueba en aprendizaje automático. Una de las pistolas de terror y programación más divertidas que he visto últimamente. Nos vemos en el próximo episodio.
[1]
[2]

481
Populares
Ranking
Favoritas
