Date de publication :

Secteur Tech et Services
Pays concerné
Corée du Sud, République

Je souhaite aller plus loin, je veux être contacté(e) par un expert gratuitement.

Être contacté
Alors que l’application de l’intelligence artificielle (IA) dans tous les secteurs devrait s’accélérer en 2026, les startups sud- coréennes spécialisées dans les semi-conducteurs IA se tournent vers le marché mondial. FuriosaAI et Rebellions, devenues des licornes l’an dernier, ambitionnent de franchir un nouveau cap en lançant la production de masse de leurs unités de traitement neuronal (NPU) et en générant des revenus significatifs.
Image info sectorielle

FuriosaAI entame dès ce mois la production en série de son NPU de deuxième génération, RNGD, soit un an et demi après sa présentation en 2024. Après avoir commercialisé son premier NPU Vision en 2021, la société s’était limitée à des revenus modestes via des projets pilotes. La production de masse de RNGD marque une étape stratégique, avec des perspectives de chiffre d’affaires se chiffrant en centaines de millions USD.

Rebellions prévoit également une année décisive. La startup lancera au premier semestre la production de son nouveau produit, Rebel-Quad, dévoilé en août dernier. Ce semi-conducteur IA intègre quatre puces NPU Rebel sous forme de chiplets dans un seul package. L’objectif est de convertir les partenaires PoC en clients et de renforcer sa présence sur le marché mondial des technologies.

Les deux entreprises ciblent le segment de l’inférence, qui consiste à exécuter des modèles IA déjà entraînés. Contrairement à l’entraînement, qui exige une puissance de calcul massive, l’inférence peut être réalisée avec des ressources plus modestes. Les entreprises recherchent désormais des solutions moins coûteuses et moins énergivores que les GPU haut de gamme de NVIDIA, leader actuel du marché. Les NPUs, conçus pour l’inférence, répondent à cette demande en offrant une meilleure efficacité énergétique. FuriosaAI affirme que RNGD délivre une performance par watt 2,7 fois supérieure à celle du GPU H100 de NVIDIA, tout en affichant un prix bien inférieur (environ 70 000 USD contre 280 000 USD pour un serveur H100).

Cependant, un obstacle majeur demeure : l’absence d’outils d’optimisation adaptés aux NPUs. Ces logiciels, essentiels pour maximiser les performances des puces IA, sont aujourd’hui largement conçus pour les GPU NVIDIA via des plateformes comme CUDA. Sans écosystème logiciel dédié, les NPUs ne peuvent exploiter pleinement leur potentiel. NVIDIA contrôle l’ensemble de l’écosystème IA grâce à ses plateformes d’optimisation. Les NPUs doivent créer des solutions similaires pour briser ce monopole.

(Source : Business Korea, Janvier 2026)