Presentan Red Hat Enterprise Linux AI

Presentan Red Hat Enterprise Linux AI

En el marco del Red Hat Summit se anunció la nueva plataforma, alianzas y nuevas capacidades para acelerar la IA generativa en open source y nube híbrida.

Red Hat presentó Enterprise Linux AI (RHEL AI), una plataforma de modelo básico que permite a los usuarios desarrollar e implementar modelos de inteligencia artificial (IA).

Asegura que las organizaciones han comenzado a pasar de las evaluaciones iniciales de servicios de IA generativa (AI Gen) a la creación de aplicaciones.

Sin embargo, advierte que la implementación de una estrategia de inteligencia artificial exige algo más que la simple elección de un modelo.

Se deben contemplar grandes costos de implementación y conocimientos especializados y administrar su ciclo de vida.

Te puede interesar leer: Ve junto con Red Hat a proyectos de Inteligencia Artificial

Por ello, en el marco de su summit anual presentó la estrategia y soluciones para extender los beneficios de los proyectos open source a la AI Gen.

La tecnología detrás de RHEL AI

Por medio de una plataforma híbrida abierta de IA y aprendizaje automático (ML) construida sobre Red Hat OpenShift.

La cual, combina la familia de modelos de lenguaje de gran tamaño Granite con la licencia open source, de IBM Research.

Las herramientas de alineación de modelos InstructLab basadas en la metodología Large-scale Alignment for chatBots.

Así como, un enfoque para el desarrollo de modelos impulsado por la comunidad a través del proyecto InstructLab.

RHEL AI además incluye: 

  • Tiempo de ejecución de modelos de inicio optimizados por Granite,
  • Paquetes de herramientas de InstructLab como imágenes RHEL, que incluyen Pytorch y las bibliotecas de tiempo de ejecución.
  • Aceleradores de hardware para: AMD Instinct MI300X, Intel y NVIDIA GPUs, y NeMo.

Red Hat OpenShift AI hace posible que los líderes de TI implementen aplicaciones de AI Gen  en cualquier lugar de la nube híbrida.

Al mismo tiempo, que crecen y regulan operaciones y modelos en función de sus necesidades, para poder dar soporte a las aplicaciones y los servicios de producción”, explicó su director de producto y vicepresidente ejecutivo, Ashesh Badani.

Todo en cloud

Además de, potenciar las estrategias de IA y ML en toda la nube híbrida abierta.

Al permitir que, las cargas de trabajo se ejecuten donde esté la información, ya sea en el centro de datos, en múltiples nubes públicas o Edge.

Como parte del encuentro en Denver, Colorado, la firma anunció alianzas con AMND, Intel y Nvidia para reforzar su plataforma en nubes híbridas.

Al mencionar que tendrá soporte de integración para los microservicios NIM de NVIDIA en Red Hat OpenShift AI.

Como parte de la plataforma de software NVIDIA AI Enterprise, para acelerar la entrega de aplicaciones de AI Gen.

Al tiempo que AMD amplió las opciones de los clientes en la creación, implementación y gestión de cargas de trabajo.

¿Cómo fue el resultado de tus ventas en el Buen Fin?