Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
Construyendo @EurekaLabsAI. Anteriormente Director de IA @ Tesla, equipo fundador @ OpenAI, CS231n/PhD @ Stanford. Me gusta entrenar grandes redes neuronales profundas.
Publicación rápida y nueva: Auto-calificación de discusiones de Hacker News de hace una década con perspectiva retrospectiva
Tomé todo el artículo de portada 930 de Hacker News + discusión de diciembre de 2015 y pedí a la API de Pensamiento de GPT 5.1 que hiciera un análisis retrospectivo para identificar los comentarios más o menos premonitorios. Esto tardó ~3 horas en hacer vibe code y ~1 hora y 60 dólares en funcionar. La idea surgió ayer en el artículo de la Familia Nacional, donde se pidió a Gemini 3 que alucinara la portada de la Familia Negra una década después.
De forma más general:
1. El análisis en retrospectiva siempre me ha fascinado como una forma de entrenar tu modelo de predicción hacia adelante, por lo que leer los resultados es realmente interesante y
2. Vale la pena contemplar cómo sería cuando los megaminds LLM del futuro pueden hacer este tipo de trabajo mucho más barato, rápido y mejor. Cada dato que aportes a internet puede (y probablemente será) examinado con gran detalle si es "gratis". De ahí también mi tuit anterior de hace tiempo: "sed buenos, los futuros LLMs están vigilando".
Enhorabuena a las 10 principales cuentas pcwalton, tptacek, paulmd, cstross, greglindahl, moxie, hannob, 0xcde4c3db, Manishearth y johncolanduoni - GPT 5.1. Thinking encontró que tus comentarios fueron los más perspicaces y visionarios de todos los comentarios de HN en diciembre de 2015.
Enlaces:
- Muchos más detalles en mi entrada del blog
- Repositorio en GitHub del proyecto si quieres jugar
- Las páginas de resultados reales para tu placer lector

43.07K
En el episodio de hoy de programación de horror...
En la documentación Python de random.seed() definitivamente, nos dicen
"Si a es un int, se usa directamente." [1]
Pero si semillas con 3 o -3, en realidad obtienes exactamente el mismo objeto de azar, produciendo las mismas corrientes. (Hoy he aprendido). En nanochat estaba usando el signo como una forma (que me parecía) ingeniosa para obtener diferentes secuencias de RNG para divisiones de tren/prueba. De ahí bug bastante fuerte porque ahora train=prueba.
Encontré el código CPython responsable en cpython/Modules/_randommodule.c [2], donde en la línea 321 vemos en un comentario:
"Este algoritmo depende de que el número no esté firmado. Así que: si el arg es un PyLong, usa su valor absoluto." seguido de
n = PyNumber_Absolute(arg);
que explícitamente llama a abs() en tu semilla para hacerla positiva, descartando el bit de signo.
Pero este comentario también es incorrecto o engañoso. En el fondo, Python llama al algoritmo Mersenne Twister MT19937, que en el caso general tiene un estado de 19937 bits (no nulo). Python toma tu int (u otros objetos) y "distribuye" esa información entre estos bits. En principio, el bit de signo podría haberse utilizado para aumentar los bits de estado. No hay nada en el algoritmo que "dependa de que el número no esté firmado". Se decidió no incorporar la parte de signo (lo cual, en mi opinión, fue un error). Un ejemplo trivial podría haber sido mapear n -> 2*abs(n) + int(n < 0).
Finalmente, esto nos lleva al contrato de random de Python, que tampoco está completamente detallado en la documentación. El contrato mencionado es el siguiente:
Misma semilla = > misma secuencia.
Pero no se garantiza que diferentes semillas produzcan distintas secuencias. Así que, en principio, Python no promete que, por ejemplo, seed(5) y seed(6) sean flujos de RNG diferentes. (Aunque esto se asume implícitamente en muchas aplicaciones.) De hecho, vemos que seed(5) y seed(-5) son corrientes idénticas. Y probablemente no deberías usarlos para separar tus comportamientos de entrenamiento/prueba en aprendizaje automático. Una de las pistolas de terror y programación más divertidas que he visto últimamente. Nos vemos en el próximo episodio.
[1]
[2]

570.68K
No pienses en los LLMs como entidades, sino como simuladores. Por ejemplo, al explorar un tema, no preguntes:
"¿Qué opinas de xyz?"
No existe un "tú". La próxima vez intenta:
"¿Cuál sería un buen grupo de personas para explorar xyz? ¿Qué dirían?"
El LLM puede canalizar/simular muchas perspectivas, pero no ha "pensado" en xyz desde hace tiempo y con el tiempo ha formado sus propias opiniones como estamos acostumbrados. Si lo fuerzas usando "tú", te dará algo adoptando un vector de incrustación de personalidad implícito por las estadísticas de sus datos de ajuste fino y luego simulándolo. Está bien hacerlo, pero hay mucho menos misterio de lo que la gente ingenuamente atribui a "preguntar a una IA".
400.27K
Populares
Ranking
Favoritas
