🚨 Alerta de avance en hardware de IA 🚨 Los investigadores acaban de publicar en Nature Computational Science un nuevo mecanismo de computación analógica en memoria que podría hacer que los modelos de lenguaje grandes funcionen 100 veces más rápido y sean 10,000 veces más eficientes en energía. En lugar de estar constantemente moviendo datos de un lado a otro como lo hacen las GPU, este diseño almacena y procesa la información en el mismo lugar, reduciendo la latencia y el consumo de energía. Ya han demostrado un rendimiento a nivel de GPT-2 sin necesidad de reentrenar desde cero. Si esto se escala, estamos hablando de LLMs en dispositivos de borde, teléfonos, incluso hardware IoT, sin necesidad de centros de datos. El cuello de botella de computación podría finalmente abrirse de par en par. La revolución de la IA no solo se tratará de algoritmos más inteligentes. Se tratará de una nueva física de la computación. Imagina GPT-5-Pro funcionando localmente, sin conexión, a una fracción de los costos energéticos actuales…🤯