ActualitéLes IA

Stockage IA : Huawei dévoile sa feuille de route à Madrid

Le constructeur chinois Huawei vient de présenter sa stratégie ambitieuse en matière de stockage pour l’intelligence artificielle lors de l’événement Huawei Connect 2025 à Madrid. L’entreprise met sur le marché européen quatre nouvelles baies de stockage accélérées spécialement conçues pour répondre aux besoins croissants des applications d’IA. Cette offensive s’accompagnera d’ici la fin de l’année d’un écosystème logiciel complet pour optimiser la préparation des données.

stockage IA

Une approche en deux temps pour le stockage IA

La stratégie de Huawei se déploie selon deux axes complémentaires. D’une part, le déploiement immédiat de baies SSD haute performance. D’autre part, le lancement prochain d’une suite logicielle complète. Yuan Yuan, responsable des baies de disque élastiques chez Huawei, affirme que leurs dernières solutions offrent des débits de 500 Go/s. Ces performances seraient tellement en avance sur la concurrence que le constructeur n’aurait pas besoin de nouveaux modèles avant deux ans.

Mais la vitesse ne suffit pas. Le véritable enjeu réside dans la valorisation des données pour l’intelligence artificielle. C’est pourquoi Huawei a conçu une pile complète baptisée AI Data Lake. Cette plateforme intègre non seulement les baies de stockage, mais aussi tout un ensemble de logiciels de gestion des données. Ces outils permettent le regroupement, l’indexation, la gestion des versions et des accès.

La partie logicielle Omni-Dataverse sera bientôt complétée par eDataInsight. Ces solutions visent à contrôler efficacement les flux de données. La plateforme iData + ModelEngine assure quant à elle la connexion directe avec les modèles d’IA. Cette approche holistique distingue Huawei de ses concurrents.

Quatre baies de stockage pour des besoins différents

stockage IA

Huawei disposait historiquement de deux familles de baies. Les OceanStor Dorado pour le stockage bloc des serveurs applicatifs. Les OceanStor Pacific pour le partage de données en mode fichier ou objet. Cette gamme s’enrichit désormais de versions accélérées et d’une nouvelle famille dédiée à l’IA.

Les OceanStor Pacific 9926 et 9928 ciblent spécifiquement les travaux d’inférence. Ces modèles physiquement identiques se composent d’un boîtier 2U. Ils peuvent contenir 36 SSD QLC au format propriétaire “Palm-Sized” de Huawei. Ces SSD affichent actuellement une capacité de 61 To. Des modèles de 122 To seront disponibles d’ici la fin de l’année.

La densité de stockage impressionne particulièrement. Ces machines ne pèsent que 45 kg pour une capacité brute de 2 Po. Yuan Yuan précise que cette densité est huit fois supérieure à celle d’une baie 2U traditionnelle avec disques durs mécaniques. Le poids est également divisé par deux.

Côté performance, les Pacific 9926 et 9928 embarquent deux processeurs ARM Kunpeng 920 conçus par Huawei. Ils disposent de 1 To de RAM et de connecteurs Ethernet RoCE en 200 Gbit/s. Les connexions Infiniband atteignent 400 Gbit/s. Le débit s’élève à 90 Go/s et la vitesse d’accès à 2,4 millions d’IOPS. Jusqu’à 256 baies peuvent être déployées en cluster.

La différence entre les deux modèles réside dans les protocoles supportés. Le 9928 prend en charge l’API HDFS typique des lacs de données. Le 9926 se limite aux accès fichier en NFS et objet en S3. Ce choix permet d’adapter la solution aux besoins spécifiques.

La famille A-Series pour l’entraînement des modèles

La nouvelle famille OceanStor A-Series se distingue par l’utilisation de SSD MLC plus rapides. Ces baies sont spécifiquement conçues pour épauler l’entraînement des intelligences artificielles. L’OceanStor A800 atteint un débit de 500 Go/s dans un boîtier 8U contenant 64 SSD. Sa vitesse d’accès culmine à 10 millions d’IOPS.

Cette machine intègre deux contrôleurs équipés chacun de quatre processeurs ARM Kunpeng 920. Chaque contrôleur dispose également de 1 To de RAM. Soit au total huit processeurs et 2 To de RAM par machine. Ces ressources considérables permettent de gérer efficacement les flux massifs de données.

L’innovation majeure réside dans les puces accélératrices NPU placées derrière les cartes réseau. Ces processeurs permettent de lire et écrire les données directement sur les SSD. Le traitement contourne ainsi le décodage au niveau des processeurs principaux. Cette technologie NPUDirect Storage (NDS) accélère les accès de 40%. Elle rappelle le GPUDirect Storage de Nvidia côté serveurs de calcul.

Cette approche matérielle s’inscrit dans la stratégie globale d’Huawei en matière d’IA. Le constructeur développe en parallèle ses propres puces IA d’Huawei, notamment l’Ascend 910C, pour réduire sa dépendance aux technologies américaines. Cette intégration verticale renforce la cohérence de son écosystème.

L’OceanStor A600 constitue une version plus compacte. Cette baie 2U de 36 SSD reprend les caractéristiques physiques des Pacific 9926 et 9928. Elle dispose de deux contrôleurs contenant chacun deux ARM Kunpeng 920 et 512 Go de RAM. Les NPU accélèrent les accès de 30%. Le débit atteint 160 Go/s avec des cartes réseau limitées à 100 Gbit/s.

Des accélérations logicielles innovantes

stockage IA

Toutes ces baies s’accompagnent d’une couche logicielle UCM (Unified Cache Manager). Cette technologie permet aux serveurs de calcul d’accéder aux baies via un protocole clé-valeur. Il s’agit d’un accès en mode bloc avec des blocs de taille variable. UCM nécessite l’installation d’un pilote côté serveurs.

Le système fait un usage intensif de la RAM embarquée dans les baies pour maintenir un cache. Ce cache fonctionne aussi bien pour le RAG que pour l’entraînement d’une IA. Selon Huawei, UCM permet d’utiliser des serveurs de calcul dont les GPU sont dépourvus de mémoire HBM. Cette mémoire haute performance sert habituellement de cache ultra rapide.

Huawei aurait développé cette technologie suite à l’embargo américain concernant l’export de mémoires HBM vers la Chine. Cette solution contourne efficacement les restrictions commerciales. Elle démontre la capacité d’innovation du constructeur face aux contraintes géopolitiques.

UCM fera partie d’un ensemble de logiciels Open Source baptisé CANN (Compute Architecture for Neural Networks). Huawei compte partager cette plateforme d’ici la fin de l’année. Elle s’intégrera à l’AI Data Lake. À ce stade, on ignore si CANN comprendra un outil de conversion des données au format vectoriel. Cette fonction est pourtant nécessaire au traitement par une IA.

La question reste ouverte de savoir si cet outil fonctionnerait directement sur les baies OceanStor. Cette approche s’apparenterait à la baie de stockage intelligente AFX présentée récemment par NetApp. L’intégration de la préparation des données dans le système de stockage simplifierait considérablement les architectures.

Une stratégie globale pour l’écosystème IA

La présentation de Madrid révèle une vision stratégique cohérente. Huawei ne se contente pas de vendre du matériel. Le constructeur construit un écosystème complet pour l’intelligence artificielle. Cette approche intégrée couvre le stockage, le calcul et le logiciel.

L’objectif affiché est d’aider les entreprises à valoriser leurs données dans les applications d’IA. La pile AI Data Lake offre tous les composants nécessaires. Du stockage haute performance aux outils de préparation des données. En passant par les interfaces avec les modèles d’intelligence artificielle.

Cette stratégie répond aux besoins croissants du marché. Les projets d’IA nécessitent des infrastructures performantes et intégrées. Les entreprises recherchent des solutions clés en main. Huawei se positionne comme un fournisseur capable de répondre à ces attentes.

Le calendrier de déploiement témoigne de l’urgence du marché. Les baies de stockage sont disponibles immédiatement. Les logiciels suivront d’ici quelques semaines. Cette cadence soutenue reflète la compétition intense dans le secteur du stockage pour l’IA.

Les performances annoncées placent Huawei parmi les leaders du secteur. Les débits de 500 Go/s et les millions d’IOPS répondent aux exigences des applications les plus gourmandes. La densité de stockage record constitue un avantage compétitif majeur.

Leave a Reply

Your email address will not be published. Required fields are marked *