Google ha dado un paso importante para que la inteligencia artificial sea más rápida y liviana sin que pierda su “inteligencia” en el camino. A través de su división de investigación, la compañía presentó TurboQuant, una nueva tecnología diseñada para comprimir la enorme cantidad de datos que los modelos de IA deben manejar segundo a segundo. El anuncio, liderado por los científicos Amir Zandieh y Vahab Mirrokni, llega en un momento clave donde la falta de memoria en los servidores es uno de los mayores frenos para el avance de esta industria.
En términos sencillos, lo que Google ha logrado es una forma de “adelgazar” la información que usan los sistemas como los chatbots y los buscadores para que ocupen mucho menos espacio, pero funcionen igual de bien o incluso mejor que antes. Propuesta permite que la inteligencia artificial reduzca su consumo de memoria hasta seis veces, logrando que los procesos de búsqueda y respuesta sean más veloces en los chips actuales y que de manera colateral, ha provocado que el valor de las acciones de algunos fabricantes de RAM hayan caído.
Más noticias de RAM
El problema del equipaje pesado en la IA
Para entender por qué esto es una gran noticia, hay que mirar cómo funciona la IA por dentro, ya que estos sistemas ven el mundo a través de “vectores”, que son básicamente listas largas de números que representan el significado de una palabra, una imagen o un documento. El problema es que, a medida que los modelos se vuelven más potentes y manejan contextos más largos (como leer libros enteros de una sola vez), esos vectores ocupan una cantidad de memoria RAM monstruosa. Hasta ahora, intentar comprimirlos era como tratar de meter demasiada ropa en una maleta pequeña, donde o la maleta no cerraba o la ropa terminaba arruinada.
Muchos métodos de compresión tradicionales fallan porque, para ahorrar espacio, necesitan guardar “notas adicionales” que expliquen cómo recuperar los datos originales y, al final, esas notas ocupan tanto lugar que el ahorro real es muy pobre. Aquí es donde entra TurboQuant, ya que Google ha diseñado un sistema que elimina esa carga extra, permitiendo que la IA trabaje con datos muy compactos sin confundirse, lo que es vital para lo que los técnicos llaman la “caché KV”, que es básicamente la memoria de corto plazo que usa la IA para recordar lo que acabas de escribir en una conversación larga.
El funcionamiento de TurboQuant no es un misterio total, comenta un reporte del medio DiarioBitcoin donde comparten el anuncio, sino que se apoya en dos herramientas llamadas PolarQuant y QJL. La primera, PolarQuant, actúa como un organizador inteligente y, en lugar de mirar los datos de la forma tradicional, los “rota” y los cambia de perspectiva para que sea más fácil distinguir qué información es la más importante y cuál es secundaria. Es como si en lugar de medir una caja por su largo, ancho y alto, simplemente midiéramos su peso y la dirección en la que apunta; así se ahorra mucho papel al anotar los datos pero se mantiene la esencia del objeto.
La segunda pieza, llamada QJL, funciona como un verificador de último minuto y una vez que la información principal ha sido comprimida, siempre queda un pequeño error o residuo. QJL toma ese resto y lo reduce a su mínima expresión (apenas un bit, como un interruptor de encendido o apagado) para corregir cualquier desviación. Gracias a este trabajo en equipo, la IA puede decidir con mucha exactitud a qué partes de un texto debe prestarle más atención, asegurando que las respuestas no se vuelvan incoherentes a pesar de estar trabajando con archivos mucho más pequeños.

La llegada de TurboQuant y el terremoto en Wall Street
Alineado a lo anterior, la situación ha dado un giro inesperado gracias a una innovación de Google Research llamada TurboQuant, y los resultados han sido tan impactantes que el mercado de valores no tardó en reaccionar ya que, mientras el sector tecnológico en general subía, las empresas que fabrican memorias informáticas sufrieron una caída importante. Compañías como Micron, SanDisk y Western Digital vieron cómo sus acciones bajaban entre un 5% y un 8%. La lógica de los inversores es sencilla, donde si la tecnología de Google permite que la IA necesite mucha menos memoria para funcionar, estas empresas venderán menos componentes en el futuro.

Todo esto mientras vemos como la inteligencia artificial ha dejado de ser un terreno de juegos y experimentos para convertirse en un negocio que debe rendir cuentas y como bien señaló Satya Nadella en su reciente paso por Madrid, la tecnología ya no solo tiene que ser sorprendente, sino que tiene que ser rentable. Estamos ante un cambio de era donde la ambigüedad no tiene cabida, ya que para 2026, los cinco gigantes del sector (Microsoft, Google, Amazon, Meta y Apple) habrán invertido cerca de 700.000 millones de dólares en infraestructura y ahora, se suma TurboQuant, que se supone generará un ahorro gigante de energía y tiempo para los desarrolladores.
OpenAI declara “code red” interno y fusiona ChatGPT con su navegador y su plataforma de código en una superapp para frenar el avance de Anthropic, su mayor rival→ Mientras jugadores de PC no pueden comprar RAM por los precios inflados, Micron anuncia que los autos autónomos necesitarán 300 GB cada uno y la escasez empeorará→
