Red Hat, leader mondial des solutions open source, annonce le lancement de Red Hat OpenShift AI 2.15. Cette plateforme IA/ML, basée sur Red Hat OpenShift, offre aux entreprises une solution puissante et évolutive pour développer et déployer des applications d’intelligence artificielle dans un environnement cloud hybride. Avec cette nouvelle version, les entreprises bénéficient d’une flexibilité accrue, d’outils avancés pour la personnalisation et le suivi, ainsi que d’un renforcement de la sécurité et de la cohérence sur les clouds publics, les datacenters et les environnements edge.
D’après IDC, plus de 40 % des dépenses IT des entreprises du Forbes Global 2000 seront consacrées aux initiatives liées à l’IA. IDC prévoit également que l’utilisation de l’IA générative et des technologies d’automatisation pourrait permettre de réaliser 1 000 milliards de dollars de gains de productivité d’ici 2026. Red Hat anticipe que ces investissements nécessitent une plateforme robuste capable de gérer le cycle de vie des modèles IA/ML et de déployer des applications d’IA générative aux côtés des charges de travail existantes dans le cloud hybride.
Principales fonctionnalités d’OpenShift AI 2.15
-Enregistrement des modèles : gestion centralisée pour le partage, le suivi et la gestion des versions des modèles IA génératifs, avec support multi-registries. Red Hat a donné ce projet à la communauté Kubeflow.
-Détection des dérives de données : surveillance continue des données d’entrée pour identifier les écarts entre les données d’entraînement et les données en production, améliorant ainsi la fiabilité et la précision des modèles.
-Détection des biais : outils pour surveiller l’équité et la transparence des modèles, essentiels pour renforcer la confiance dans l’IA, issus de la communauté TrustyAI.
-Optimisation avec LoRA : utilisation des adaptateurs à faible rang (LoRA) pour un ajustement efficace des modèles de langage (LLM), réduisant les coûts et les besoins en ressources.
-Prise en charge de NVIDIA NIM : accélère le déploiement d’applications IA générative via des microservices accessibles et intégrés à la plateforme NVIDIA AI Enterprise.
-Support des GPU AMD : nouvelles options pour le développement, l’entraînement et l’ajustement des modèles avec les GPU AMD, idéales pour optimiser les performances des charges de calcul intensives.
Amélioration du déploiement des modèles
Red Hat OpenShift AI 2.15 améliore le déploiement des modèles IA générative grâce à de nouvelles fonctionnalités comme le runtime vLLM pour KServe et le support des ModelCars de KServe. Ces ajouts permettent l’utilisation de dépôts conformes à l’Open Container Initiative (OCI) pour stocker et gérer facilement des modèles conteneurisés. En outre, les options de routes privées et publiques pour les points d’accès KServe renforcent la sécurité en permettant de cibler les endpoints internes.
Formation et expérimentation IA renforcées
Cette mise à jour d’OpenShift AI améliore les pipelines de data science et le suivi des expérimentations grâce à des avancées intelligentes. Le réglage des hyperparamètres via Ray Tune augmente la précision tout en accélérant l’entraînement des modèles prédictifs et génératifs. L’ajout d’images conteneurisées de base pour les clusters Ray facilite la répartition des tâches d’entraînement et d’optimisation entre plusieurs charges de travail au sein du cluster. Cela réduit non seulement le temps de traitement, mais maximise également l’utilisation des nœuds disponibles.
Disponibilité
Red Hat OpenShift AI 2.15 est disponible depuis la mi-novembre 2024.