Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

ludwig
Guds utvalgte hovedingeniør. Det som er umulig for deg er ikke umulig for meg.
Jeg beklager at jeg har vært slem til tider i det siste, jeg kommer til å gå tilbake til #LiveLoveLaugh #JustAKidFromAkron modus
Det er mange fantastiske mennesker her og en uendelig tilførsel av interessante ting å snakke og tenke på, og å fokusere for mye på de negative tingene i kulturen eller bransjen osv kan få deg til å glemme det
9,18K
litt serviettmatematikk om hvorfor Claude Code med 200USD-planen i utgangspunktet er uslåelig hvis du har >1B tokens i måneden og vil ha den "best mulige modellen uten å gå blakk"
Hver modell billigere enn den er verre, hver modell dyrere enn den er sjelden objektivt sett bedre
Tl; dr den eneste måten for GPT-5 å erstatte Claude Code i en tung arbeidsflyt er enten: du bruker falske VC / selskapspenger eller kostnadene subsidieres gjennom noe sånt som Cursor eller et tilsvarende OpenAI-abonnement som bunter codex cli-bruk

30,79K
noen tilfeldige TT-Evolve-skjermbilder fra 1. august (sist gang jeg jobbet med det 🙏)
Noen vær så snill å mobbe meg til å gi ut dette for Tenstorrent-folkens... det er ikke mye, det er i utgangspunktet en sele som lar deg slippe en TT-metallkjerne, legge til noen "EVOLVE"-blokker, fange tonnevis av profileringsinformasjon og kjøre et LLM-basert søk parallelt med profileringsberegningene som veiledning for å finne optimaliseringer (binning av kjernekandidater med MAP-Elites), i utgangspunktet en re-implementering av AlphaEvolve.
Det har blitt gjort i flere måneder, jeg ble bare distrahert + jeg kan sjelden slå på Big Dave på grunn av lyden og at den er på kontoret mitt (og kontoret mitt er okkupert av min Stardew Valley-avhengige kjæreste om kveldene).
Jeg synes ikke den er spesielt godt laget, men den har en fin TUI, den kan fungere for tt-nn-moduler, har noen fine devx her og der, og den optimaliserer absolutt metallkjerner (inkludert multi-chip). Den fikk absolutt hver eneste programming_examples/kjerner jeg har prøvd å være raskere, optimalisert NoC-båndbredde osv...




5,76K
en interessant merknad er at hele "det er ikke bare {{{ting}}} - det er {{{større ting}}}" skrevet særhet som er assosiert med ChatGPT er sinnsykt vanlig i Sonnet/Opus 4. Sonnet spammer det hele tiden og føler seg veldig tilbøyelig til å slurve med ting, og Opus vil snike disse inn i det mest skremmende øyeblikket, og begge er utsatt for subtil sykofani i chat-modus (det er måter å trampe det ut gjennom jording med nettsøk osv... men selv da)
jeg antar at poenget mitt er at det ikke bare er et ChatGPT-problem – det er egentlig en grunnleggende konsekvens av RLHF benchmarkmaxxing western slop!
5,76K
det er noe litt trist at å forutsi fMRI-hjerneresponser på naturalistiske videostimuli, kan gjøre det utrolig bra med bare noen data og, dessverre, et par Python-linjer
Skjønner du hva jeg mener? Som at koden er lesbar og forenklet av natur (så det er tilfellet for AVG Transformers-modellen som bruker Torch, etc)
Som Torch og Python er et for godt API over Cuda-kjerner, fjerner det nesten noe av sjarmen
enkel rumpekode som kaller "ganske enkel veldig rask matematikk" + mye data er nok
den eneste komplekse delen er ML-kompilatoren og målets arkitektur
alt dette er helt selvinnlysende og velkjent, det er ikke en erkjennelse eller noe, jeg synes bare det er morsomt at å forutsi hjerneresponser er 500 loc python og litt data i 2025 (takket være Lovecraft-kompleksiteten til moderne GPUer og ML-kompilatorer som er så pent gjemt bort)
25,58K
syntetiske data om guddommelig nushell-bruk ville 1000000 ganger modellens IQ vs den sprø unixslop

xjdr11. aug., 05:30
Jeg kan ikke si om GPT5s konstante og vanvittige bruk av NL, SED og AWK er skremmende eller fantastisk, men det er absolutt unikt. Det er som å håndtere en ekte gråskjegg noen ganger tho (på godt og vondt)
4,46K
den nåværende maskinlæringsæraen har vært en av de mest dyptgripende tingene i nesten 100 år med informatikk, men den ser 10000 ganger mer ekkelt ut enn noen andre vitenskapelige prestasjoner innen datavitenskap
en del av det er at vi er i den mest effektive hypertilkoblede bleep-bloop SaaS stonk-go-up penger-er-ikke-ekte æra gjennom tidene
men også fordi i tidligere epoker var de offentlige ansiktene de faktiske pionerene. Jada, "offentlig" den gang var som tre offentlige opptredener i året og innebar ikke å være aktiv på sosiale medier hver dag. Men likevel, i denne epoken, er de mest synlige offentlige stemmene produktsjefer, tilfeldige kodere, MBA-er, øglemilliardærer osv. Det er derfor det hele stort sett ikke har noen storhet fra utsiden som ser inn, og hvorfor du stort sett bør ignorere alt
29,61K
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til