En bref

  • La startup sud-coréenne Rebellions a levé 400 millions de dollars en pré-IPO, portant sa valorisation à 2,3 milliards de dollars.
  • Spécialisée dans les puces d'inférence IA, l'entreprise prépare une entrée en bourse et s'étend aux États-Unis, au Japon, en Arabie Saoudite et à Taïwan.
  • Cette levée intervient dans un contexte de pénurie mondiale de mémoire (« RAMmageddon ») qui freine les déploiements IA à grande échelle.

Ce qui s'est passé

Rebellions, startup fabless sud-coréenne fondée en 2020, a bouclé un tour de financement pré-IPO de 400 millions de dollars mené par Mirae Asset Financial Group et le Korea National Growth Fund. La valorisation de l'entreprise atteint désormais 2,3 milliards de dollars, selon TechCrunch. L'entreprise conçoit des puces spécialisées dans l'inférence IA — le calcul nécessaire pour que les modèles répondent aux requêtes des utilisateurs — et externalise leur fabrication.

Rebellions accélère son expansion internationale avec l'ouverture récente d'entités aux États-Unis, au Japon, en Arabie Saoudite et à Taïwan. L'entreprise vise le marché des data centers et des plateformes cloud qui cherchent des alternatives aux GPU Nvidia pour leurs charges de travail d'inférence, un segment où les marges et les volumes explosent avec la généralisation de l'IA générative.

Cette levée s'inscrit dans un écosystème en ébullition : SK Hynix, géant sud-coréen de la mémoire, prépare de son côté une introduction en bourse aux États-Unis qui pourrait lever entre 10 et 14 milliards de dollars pour augmenter ses capacités de production de mémoire HBM, essentielle aux accélérateurs IA. Le marché souffre actuellement d'une pénurie baptisée « RAMmageddon » par les analystes, selon TechCrunch et The Register.

Pourquoi c'est important

La domination de Nvidia sur le marché des puces IA pousse les acteurs du cloud et les États à chercher des alternatives. Rebellions s'inscrit dans cette dynamique aux côtés de Groq, Cerebras et d'autres challengers. Pour les entreprises européennes, la diversification des fournisseurs de silicium IA est un enjeu stratégique : dépendre d'un seul acteur expose à des risques de pénurie et de pricing power excessif.

La pénurie de mémoire HBM ajoute une couche de complexité. Même avec des puces disponibles, le manque de mémoire haute bande passante ralentit les déploiements d'infrastructure IA. L'IPO prévue de SK Hynix aux États-Unis vise précisément à financer l'expansion des capacités de production pour répondre à cette demande.

Ce qu'il faut retenir

  • Le marché des puces d'inférence IA attire des investissements massifs et se structure comme une alternative crédible aux GPU Nvidia.
  • La pénurie de mémoire HBM (« RAMmageddon ») reste un goulot d'étranglement majeur pour les déploiements IA en 2026.
  • Les DSI doivent anticiper ces contraintes hardware dans leur planification de projets IA et diversifier leurs sources d'approvisionnement.

Qu'est-ce qu'une puce d'inférence IA et pourquoi est-ce stratégique ?

Une puce d'inférence est un processeur optimisé pour exécuter des modèles IA déjà entraînés, par opposition aux GPU d'entraînement. C'est le composant qui fait tourner ChatGPT, Claude ou Gemini quand vous posez une question. Avec l'explosion de l'usage de l'IA générative, la demande en puces d'inférence croît plus vite que celle des puces d'entraînement, ce qui en fait un marché stratégique estimé à plusieurs dizaines de milliards de dollars.

Besoin d'un accompagnement expert ?

Ayi NEDJIMI vous accompagne sur vos projets cybersécurité et IA.

Prendre contact