NVIDIA:s nya Blackwell-arkitektur är häpnadsväckande! Det är otroligt hur långt före NVIDIA är jämfört med alla andra. Blackwell är en massiv uppgradering av GPU-arkitekturen. Du kan träna och betjäna modeller med biljoner parametrar snabbare, billigare och i en skala som var science fiction för några år sedan. 1. 2,5x träningshastighet och 4x inferenseffektivitet (jämfört med Hopper) 2. 192 GB minne och 8 TB/s minnesbandbredd 3. 208 miljarder transistorer i en design med dubbla matriser (Hopper är en enda matris, med 80 miljarder transistorer) Jag läste en onlineanalys som uppskattar att OpenAI skulle kunna spara 1,43 miljoner dollar per utvärderingscykel för att köra o3! Det här är häpnadsväckande! Om ditt företag för närvarande använder ett GPU-kluster bör du överväga att titta på ett Blackwell-kluster. Blackwell kommer att slå allt AI-relaterat när det gäller kostnader och effektivitet. Du kan reservera ett kluster just nu: