🚨 Alerta 🚨 de avanço de hardware de IA Pesquisadores acabam de publicar na Nature Computational Science um novo mecanismo de computação analógica na memória que pode fazer com que grandes modelos de linguagem sejam executados 100 vezes mais rápido e 10.000 vezes mais eficientes em termos de energia. Em vez de embaralhar dados constantemente para frente e para trás como as GPUs fazem, esse design armazena e processa informações no mesmo lugar, reduzindo a latência e o uso de energia. Eles já mostraram desempenho no nível GPT-2 sem retreinar do zero. Se isso for dimensionado, estamos falando de LLMs em dispositivos de borda, telefones e até hardware IoT, sem necessidade de datacenters. O gargalo da computação pode finalmente se abrir. A revolução da IA não será apenas sobre algoritmos mais inteligentes. Vai ser sobre a nova física da computação. Imagine o GPT-5-Pro rodando localmente, offline, por uma fração dos custos de energia atuais... 🤯