🚨 Alerta de avanço em hardware de IA 🚨 Pesquisadores acabaram de publicar na Nature Computational Science um novo mecanismo de computação analógica em memória que pode fazer com que grandes modelos de linguagem funcionem 100x mais rápido e 10.000x mais eficientes em termos de energia. Em vez de ficar constantemente movendo dados de um lado para o outro como os GPUs fazem, este design armazena e processa informações no mesmo lugar, reduzindo a latência e o consumo de energia. Eles já demonstraram desempenho ao nível do GPT-2 sem re-treinamento do zero. Se isso escalar, estaremos falando de LLMs em dispositivos de borda, telefones, até mesmo hardware IoT, sem necessidade de datacenters. O gargalo de computação pode finalmente se abrir amplamente. A revolução da IA não será apenas sobre algoritmos mais inteligentes. Vai ser sobre uma nova física da computação. Imagine o GPT-5-Pro rodando localmente, offline, a uma fração dos custos de energia de hoje…🤯