24h País Vasco.

24h País Vasco.

Multiverse Computing obtiene 189 millones de euros para impulsar su innovación en compresión de modelos de IA.

Multiverse Computing obtiene 189 millones de euros para impulsar su innovación en compresión de modelos de IA.

SAN SEBASTIÁN, 12 de junio. En un desarrollo emocionante para el ámbito de la inteligencia artificial, la empresa Multiverse Computing, ubicada en San Sebastián, ha cerrado una significativa ronda de financiación, logrando 189 millones de euros para impulsar su innovadora tecnología de compresión de modelos de IA.

Con la reciente introducción de CompactifAI, una solución que promete reducir el tamaño de modelos de lenguaje de gran escala hasta en un asombroso 95%, la compañía ha compartido los detalles de esta inversión en un comunicado oficial. La captación, que equivale a unos 215 millones de dólares, marca un hito en su camino hacia la expansión.

Esta ronda de financiación de Serie B ha sido liderada por Bullhound Capital, y ha recibido el respaldo de un variado grupo de inversores, incluidos HP Tech Ventures, SETT, Forgepoint Capital International, CDP Venture Capital, Santander Climate VC, Quantonation, Toshiba y Capital Riesgo de Euskadi-Grupo SPRI.

Multiverse Computing ha destacado que este capital permitirá acelerar la llegada al mercado de su tecnología, abordando de manera efectiva los altos costes que actualmente limitan la implementación de los modelos de lenguaje de gran tamaño (LLMs). La firma estima que esta innovación puede transformar un sector de la IA que ya está valorado en 106.030 millones de dólares.

La empresa también ha señalado que los LLMs suelen depender de infraestructuras en la nube, lo que incrementa notablemente los gastos operativos. Aunque existen técnicas de compresión en el mercado, estas a menudo comprometen el rendimiento de los modelos resultantes, según explicaron desde la compañía.

No obstante, Multiverse Computing enfatiza que CompactifAI produce versiones altamente eficientes de los LLMs de código abierto más avanzados, manteniendo la precisión y mejorando su velocidad de funcionamiento de cuatro a doce veces. Además, la compresión puede reducir los costos de inferencia entre un 50% y un 80%, lo que representa un avance significativo en el área.

Enrique Lizaso, fundador y CEO de la empresa, ha declarado que la creencia previa de que la reducción del tamaño de los LLMs conlleva una pérdida de rendimiento está siendo desafiada por su innovación. “Con el apoyo de una red de inversores estratégicos y la guía de Bullhound Capital, estamos listos para continuar nuestro camino hacia la entrega de modelos de IA comprimidos que sobresalgan en rendimiento y requieran una infraestructura más asequible”, concluyó Lizaso.