Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
Clădirea @EurekaLabsAI. Anterior Director AI @ Tesla, echipa fondatoare @ OpenAI, CS231n/PhD @ Stanford. Îmi place să antrenez rețele neuronale mari și profunde.
Îmi place expresia "hrană pentru gândire" ca o capacitate cognitivă concretă și misterioasă pe care o experimentează oamenii, dar pentru care LLM-urile nu au echivalent.
Definiție: "ceva ce merită gândit sau luat în considerare, cum ar fi o masă mentală care îți hrănește mintea cu idei, perspective sau probleme ce necesită reflecție mai profundă. Este folosită pentru subiecte care îți provoacă perspectiva, oferă o înțelegere nouă sau te fac să reflectezi la întrebări importante, acționând ca stimulare intelectuală."
Astfel, în limbajul LLM, este o succesiune de token-uri astfel încât, atunci când sunt folosite ca prompt pentru lanțul de gândire, mostrele sunt recompensatoare de urmărit, prin intermediul unei funcții intrinsecă de recompensă încă nedescoperite. Sunt obsedat de forma pe care o ia. De gândit.
151
Postare nouă rapidă: Auto-evaluarea discuțiilor Hacker News vechi de un deceniu cu retrospectivă
Am luat toate articolele de pe prima pagină Hacker News din 930 + discuție din decembrie 2015 și am cerut API-ului GPT 5.1 Thinking să facă o analiză retrospectivă pentru a identifica cele mai prevăzătoare comentarii. Asta a durat ~3 ore să funcționeze și ~1 oră și 60$ să ruleze. Ideea a apărut de articolul din HN de ieri, unde Gemini 3 a fost rugat să halucineze prima pagină a HN cu un deceniu înainte.
Mai general:
1. Analiza retrospectivă m-a fascinat mereu ca o modalitate de a-ți antrena modelul de predicție anticipată, așa că citirea rezultatelor este cu adevărat interesantă și
2. merită să ne gândim cum arată când MEGAMIND-urile LLM ale viitorului pot face acest tip de muncă mult mai ieftin, mai rapid și mai bine. Fiecare informație pe care o aduci pe internet poate (și probabil va fi) analizată în detaliu dacă este "gratuită". De aici și tweet-ul meu anterior de acum ceva timp - "fii cuminte, viitorii LLM-uri te urmăresc".
Felicitări celor mai buni 10 conturi pcwalton, tptacek, paulmd, cstross, greglindahl, moxie, hannob, 0xcde4c3db, Manishearth și johncolanduoni - GPT 5.1. Thinking a găsit comentariile tale cele mai perspicace și prevăzătoare dintre toate comentariile HN din decembrie 2015.
Legături:
- Mult mai multe detalii în postarea mea de pe blog
- Repopo-ul GitHub al proiectului dacă vrei să joci
- Paginile de rezultate propriu-zise pentru plăcerea ta de lectură

667
În episodul de azi al programării horror...
În documentația Python a random.seed() def, ni se spune
"Dacă a este un int, se folosește direct." [1]
Dar dacă semenezi cu 3 sau -3, obții exact același obiect RNG, producând aceleași fluxuri. (Am aflat acum). În nanochat foloseam semnul ca o metodă (pe care o credeam eu) ingenioasă de a obține secvențe RNG diferite pentru diviziunile tren/test. De aceea bug neplăcut, pentru că acum train=test.
Am găsit codul CPython responsabil în cpython/Modules/_randommodule.c [2], unde la linia 321 vedem într-un comentariu:
"Acest algoritm se bazează pe faptul că numărul este nesemnat. Deci: dacă arg-ul este un PyLong, folosiți valoarea sa absolută." urmat de
n = PyNumber_Absolute(arg);
care apelează explicit abs() pe sămânța ta pentru a o face pozitivă, eliminând bitul semnului.
Dar acest comentariu este de fapt greșit/înșelător. Sub capotă, Python numește algoritmul Mersenne Twister MT19937, care în cazul general are 19937 de biți (ne-zero). Python ia int-ul tău (sau alte obiecte) și "răspândește" acea informație pe aceste biți. În principiu, bitul de semn ar fi putut fi folosit pentru a suplimenta biții de stare. Nu există nimic în algoritm care să "se bazeze pe faptul că numărul este nesemnat". S-a luat decizia de a nu include bitul semnului (ceea ce, după părerea mea, a fost o greșeală). Un exemplu trivial ar fi fost să aplic n -> 2*abs(n) + int(n < 0).
În cele din urmă, acest lucru ne conduce la contractul random-ului din Python, care nu este nici el detaliat complet în documentație. Contractul menționat este:
aceeași sămânță = > aceeași secvență.
Dar nu există nicio garanție că semințele diferite produc secvențe diferite. Așadar, în principiu, Python nu promite că, de exemplu, seed(5) și seed(6) sunt fluxuri RNG diferite. (Deși acest lucru este destul de des presupus implicit în multe aplicații.) De fapt, vedem că seed(5) și seed(-5) sunt fluxuri identice. Și probabil nu ar trebui să le folosești pentru a separa comportamentele de antrenare/testare în machine learning. Una dintre cele mai amuzante pistoale de groază de programare pe care le-am întâlnit recent. Ne vedem în următorul episod.
[1]
[2]

497
Limită superioară
Clasament
Favorite
