🚨 Varning för genombrott för 🚨 AI-maskinvara Forskare har nyligen publicerat i Nature Computational Science en ny analog datormekanism i minnet som kan få stora språkmodeller att köras 100 gånger snabbare och 10 000 gånger mer energieffektiva. Istället för att ständigt flytta data fram och tillbaka som GPU:er gör, lagrar och bearbetar den här designen information på samma plats, vilket minskar latensen och strömförbrukningen. De har redan visat prestanda på GPT-2-nivå utan omskolning från grunden. Om detta skalas pratar vi om LLM:er på gränsenheter, telefoner, till och med IoT-hårdvara, inga datacenter krävs. Flaskhalsen i beräkningen kan äntligen spricka vidöppen. AI-revolutionen kommer inte bara att handla om smartare algoritmer. Det kommer att handla om ny fysik inom databehandling. Föreställ dig att GPT-5-Pro körs lokalt, offline, till en bråkdel av dagens energikostnader... 🤯