NeuReality facilita la implantación de la IA generativa

20/11/2023

diarioabierto.es. La solución de la compañía participada por Cardumen Capital evita los cuellos de botella y permite un ahorro de hasta el 90% de cada dólar invertido.

NeuReality, compañía de inteligencia artificial (IA) participada por la gestora de Venture Capital Cardumen Capital, ha anunciado el lanzamiento de NR1, una solución de inferencia totalmente integrada que facilitará el procesamiento de IA a los grandes datacenters centrados en CPU de hoy en día que sufren de alta ineficiencia y gasto. El chip de NeuReality ofrece un rendimiento 10 veces superior y un ahorro de costes de 90 céntimos por cada dólar invertido en operaciones de IA.

Junto a sus socios comerciales y clientes, NeuReality presenta los primeros servidores centrados en Inteligencia Artificial asequibles y ultra escalables del mundo diseñados exclusivamente para la inferencia, el funcionamiento diario de un modelo de Inteligencia Artificial entrenado.

A pesar de lo caro que resulta hacer funcionar la IA en directo, la inferencia sigue siendo un punto ciego en nuestro sector, según Moshe Tanach, cofundador y CEO de NeuReality. «ChatGPT es un ejemplo nuevo y popular, por supuesto, pero la IA generativa se encuentra en un estado incipiente. Las empresas actuales se están esforzando en incorporar de forma asequible y cotidiana a su actividad aplicaciones de IA, desde sistemas de reconocimiento de voz y motores de recomendación hasta visión computacional y gestión de riesgos», afirma Tanach.

«La IA generativa también está en su horizonte, por lo que se trata de un problema agravado que requiere un diseño centrado en la Inteligencia Artificial totalmente nuevo, ideal para la inferencia. Nuestros clientes se beneficiarán inmediatamente de la implantación de nuestra solución, que es fácil de instalar y de utilizar con proveedores de hardware y soluciones ya establecidos», añade.

La anticipación de la necesidad de una inferencia de IA más asequible, rápida y escalable llevó a Moshe Tanach a fundar NeuReality en 2019, recibiendo posteriormente la inversión de Cardumen Capital. La empresa se centra en uno de los mayores problemas de la IA: hacer que la fase de inferencia sea económicamente sostenible y lo suficientemente escalable como para soportar la demanda de consumidores y empresas a medida que la IA se acelera. La cuestión es que por cada dólar que se gasta hoy en entrenar un modelo de IA, las empresas gastan unos 8 dólares en ejecutar esos modelos, según Tanach: «Ese astronómico coste energético y financiero no hará más que crecer a medida que el software y las aplicaciones de la Inteligencia Artificial se disparen en los próximos años sobre modelos más grandes y sofisticados».

Con el sistema NR1™, los datacenters centrados en la IA tendrán una capacidad de rendimiento 10 veces superior para ayudar a las empresas financieras, sanitarias, gobiernos y pymes a crear mejores experiencias de cliente con Inteligencia Artificial en sus productos. Esto, a su vez, puede ayudar a las empresas a generar más ingresos y reducir los costes en un 90%.

«El sistema de inferencia de IA de NeuReality llega en el momento adecuado, cuando los clientes no solo desean un rendimiento escalable y un menor coste total, sino que también quieren soluciones de Inteligencia Artificial open-choice, seguras y sin fisuras que satisfagan sus necesidades», afirma Scott Tease, vicepresidente y director general de Inteligencia Artificial y HPC WW de Lenovo. «NeuReality está aportando una innovación de Inteligencia Artificial altamente eficiente y fácil de usar al datacenter. Trabajando junto a NeuReality, Lenovo espera implementar esta solución de Inteligencia Artificial transformadora con datos de clientes y ofrecer una rápida adopción de la IA para todos. Como líder en el Lenovo AI Innovators’ Programme, las tecnologías de NeuReality nos ayudarán a ofrecer soluciones cognitivas probadas a los clientes que se embarcan en sus viajes dentro de la IA», afirma Tease.

«La próxima era de la Inteligencia Artificial depende de un amplio despliegue de la inferencia ML (Machine Learning) para liberar la potencia de los LLM y otros modelos en desarrollo en aplicaciones nuevas y existentes», afirma Mohamed Awad, Vicepresidente Senior y Director General de la Línea de Negocio de Infraestructura de Arm. «Arm Neoverse ofrece una plataforma tecnológica versátil y flexible para permitir silicio personalizado innovador como el NR1™ NAPU de NeuReality, que trae al mercado una forma poderosa y eficiente de procesamiento especializado para el centro de datos centrado en IA», añade.

La solución de NeuReality se comercializará a finales de 2023 con una cadena de valor establecida de socios de software, fabricantes de equipos originales (OEM), proveedores de aceleradores de aprendizaje profundo (DLA) de semiconductores, proveedores de servicios en la nube y empresas de soluciones de IT empresariales como Arm, AMD, CBTS, Cirrascale, IBM, Lenovo, Qualcomm y Supermicro, entre otros. Como resultado, los servicios financieros, la sanidad, la administración pública y también las pymes podrán acceder a soluciones de inferencia de Inteligencia Artificial de NeuReality fáciles de implementar y utilizar con un rendimiento rentable.

«Estamos encantados de trabajar con NeuReality para ofrecer la inferencia como un servicio en banca, seguros e inversión», afirma P.J. Go, CEO de Cirrascale Cloud Services. «Como proveedor especializado de servicios en la nube, nos centramos en ayudar a los clientes a elegir la plataforma y los criterios de rendimiento adecuados para sus necesidades de servicios en la nube. Trabajar con NeuReality para ayudar a resolver la inferencia, posiblemente el mayor problema al que se enfrentan las empresas de Inteligencia Artificial hoy en día, sin duda desbloqueará nuevas experiencias y flujos de ingresos para nuestros clientes», remarca.

«Junto con nuestros socios, hemos reimaginado la inferencia y, en el proceso, hemos establecido el estándar para el futuro de la IA, que es más rentable, consciente de las emisiones de carbono y orientado al rendimiento. No hace falta esperar dos o tres años a que alguien invente el chip de inferencia de Inteligencia Artificial ideal. Nosotros ya lo tenemos», concluye Tanach.

¿Te ha parecido interesante?

(Sin votos)

Cargando...

Aviso Legal
Esta es la opinión de los internautas, no de diarioabierto.es
No está permitido verter comentarios contrarios a la ley o injuriantes.
Nos reservamos el derecho a eliminar los comentarios que consideremos fuera de tema.
Su direcciónn de e-mail no será publicada ni usada con fines publicitarios.