NVIDIA a multiplié ses revenus par 8 en 4 ans pour atteindre 130,5 milliards de dollars au FY2025. Son GPU H100 est la ressource la plus convoitée du monde. Mais la vraie défense de NVIDIA n'est pas le hardware — c'est CUDA, un écosystème logiciel de 4 millions de développeurs qui rend le changement de plateforme quasi impossible.
En 2019, NVIDIA réalisait 11,7 milliards de dollars de chiffre d'affaires — une entreprise de semi-conducteurs parmi d'autres, connue des gamers pour ses cartes graphiques GeForce. En FY2025 (terminé janvier 2025), ce chiffre atteint 130,5 Md$ : une multiplication par 11 en six ans. Aucune entreprise dans l'histoire de l'économie mondiale n'a connu une croissance aussi rapide à cette échelle de revenus. Le segment Data Center représente désormais 115,2 Md$ (88 % du total), alimenté par la demande des hyperscalers — Microsoft, Google, Meta, Amazon, Oracle — pour entraîner et inférer leurs modèles d'intelligence artificielle. La puce H100, vendue entre 25 000 et 40 000 dollars selon la version, était en rupture de stock pendant 12 à 18 mois consécutifs en 2023-2024, avec des files d'attente d'un an chez les fournisseurs cloud.
Mais la vraie question n'est pas : "NVIDIA est-il dominant ?" La réponse est triviale et bien connue. La vraie question est : "Cette domination est-elle durable, et sur quoi repose-t-elle réellement ?" Et c'est là que l'analyse diverge du consensus. La domination de NVIDIA n'est pas fondée sur des GPU supérieurs — AMD et même Intel fabriquent des puces IA aux spécifications comparables. Elle repose sur CUDA, un écosystème logiciel lancé en 2006, qui compte désormais 4 millions de développeurs actifs, plus de 1 000 bibliothèques optimisées et une intégration native dans chaque framework d'IA majeur. Ce moat invisible est la vraie défense — et la vraie prison — de l'industrie IA mondiale.
L'ANATOMIE DU MOAT CUDA
| Dimension | NVIDIA (CUDA) | AMD (ROCm) | Intel (oneAPI) |
|---|---|---|---|
| Développeurs actifs | 4 millions | ~150 000 | ~80 000 |
| Bibliothèques IA optimisées | 1 000+ | 250+ | 150+ |
| Frameworks natifs (PyTorch, TF, JAX) | Optimisation prioritaire | Support secondaire | Support partiel |
| Années d'écosystème cumulées | 18 ans (2006→) | ~6 ans | ~4 ans |
| Coût de migration estimé | — | 6-24 mois re-engineering | 12-30 mois |
| Adoption hyperscalers entraînement IA | ~95 % | ~4 % | ~1 % |
ARCHITECTURE PRODUIT 2020-2026
| Génération | Puce | VRAM | Performance IA | Prix indicatif |
|---|---|---|---|---|
| Ampere (2020) | A100 SXM4 | 80 GB HBM2e | 312 TOPS FP16 | 10 000-15 000 $ |
| Hopper (2022) | H100 SXM5 | 80 GB HBM3 | 3 958 TOPS FP8 | 25 000-40 000 $ |
| Hopper (2023) | H200 SXM5 | 141 GB HBM3e | 4 500 TOPS FP8 | 30 000-50 000 $ |
| Blackwell (2024) | B100 | 192 GB HBM3e | 14 000 TOPS FP4 | 35 000-60 000 $ |
| Blackwell Ultra (2025) | B200 Ultra | 288 GB HBM3e | 20 000 TOPS FP4 | 50 000-80 000 $+ |
ÉCONOMIE DU MONOPOLE — MARGES ET VALORISATION
La structure financière de NVIDIA révèle un profil sans équivalent dans l'industrie hardware. La marge brute dépasse 74 % au FY2025 — un niveau typique des éditeurs de logiciels, pas des fabricants de semi-conducteurs dont la marge moyenne tourne autour de 45-50 %. Cette anomalie s'explique précisément par le moat CUDA : NVIDIA ne vend pas seulement du silicium, il vend l'accès à un écosystème que ses clients ne peuvent pas quitter.
| Indicateur financier | FY2023 | FY2024 | FY2025 | Tendance |
|---|---|---|---|---|
| Chiffre d'affaires total | 26,9 Md$ | 60,9 Md$ | 130,5 Md$ | +122 % |
| Segment Data Center | 15,0 Md$ | 47,5 Md$ | 115,2 Md$ | +143 % |
| Marge brute | 56,9 % | 72,7 % | 74,6 % | En hausse |
| Résultat net | 4,4 Md$ | 29,8 Md$ | 72,9 Md$ | ×16 en 2 ans |
| Capitalisation boursière | 360 Md$ | 1 220 Md$ | 3 400 Md$ | ×9 en 2 ans |
| P/E ratio | 81x | 97x | 47x | Normalisé post-croissance |
LA COURSE AU BLACKWELL — SUPPLY CHAIN ET PRODUCTION
La puce Blackwell représente un saut générationnel : 2,5x plus rapide que le H100 sur l'inférence, 4x plus efficace énergétiquement. Mais sa production révèle la complexité industrielle derrière chaque GPU : la puce est fabriquée par TSMC (nœud 4NP+ custom), la mémoire HBM3e fournie par SK Hynix (exclusivement), le packaging CoWoS réalisé par TSMC avec une capacité limitée, et les systèmes DGX/HGX assemblés par Foxconn et Flextronics.
| Composant Blackwell | Fournisseur | Localisation | Risque supply chain |
|---|---|---|---|
| Die principal (4nm) | TSMC | Taiwan | CRITIQUE — aucune alternative |
| Mémoire HBM3e | SK Hynix | Corée du Sud | ÉLEVÉ — monopole de fait |
| Packaging CoWoS | TSMC | Taiwan | ÉLEVÉ — capacité contrainte |
| Substrats avancés | Ibiden, Shinko | Japon | MOYEN |
| Assemblage système | Foxconn / Flextronics | Asie du Sud-Est | FAIBLE |
Le moat CUDA crée un lock-in structurel que ni AMD ni Intel ne peuvent briser. Chaque dollar investi dans l'optimisation CUDA renforce la dépendance. NVIDIA contrôle le hardware, le software, les bibliothèques et les frameworks — un stack complet inédit dans l'histoire de l'informatique. La migration représente des années de re-engineering pour des gains incertains.
Les TPU v5 de Google, les Trainium 2 d'Amazon et les MTIA de Meta montrent que les hyperscalers construisent leurs propres alternatives. Ces acteurs représentent 40 à 50 % de la demande GPU mondiale. Si Google s'auto-fournit à 100 % pour l'inférence (déjà le cas sur certains workloads Gemini), la demande adressable de NVIDIA se contracte massivement. L'inférence — pas l'entraînement — est le marché du futur.
NVIDIA conservera la domination sur l'entraînement de grands modèles (CUDA irremplaçable) pour au moins 5 à 8 ans. Sur l'inférence, la part de marché s'érodera progressivement vers 70-75 %. Le risque principal est la diversification accélérée des hyperscalers, pas AMD ou Intel.
ACTEURS CLÉS
| Acteur | Rôle | Position vis-à-vis NVIDIA | Stratégie |
|---|---|---|---|
| Microsoft (Azure) | Premier client (~15 % revenus) | Partenaire stratégique, accès prioritaire Blackwell | Azure AI Foundry, co-développement |
| Google (GCP) | Client ET concurrent (TPU) | H100/H200 pour entraînement + TPU v5 interne | Diversification progressive |
| Meta | Client majeur + MTIA propre | 350 000 H100 commandés en 2024 | H100 pour training, MTIA pour inference |
| AMD | Concurrent GPU | Part marché <5 % IA training | ROCm, MI300X, partenariat OpenAI |
| Huawei (Chine) | Concurrent domestique CN | Proscrit par export controls | Ascend 910C : ~60 % perf H100 |
| TSMC | Partenaire fabrication | Fournisseur exclusif wafers | Nœuds dédiés NVIDIA (N4P, N3) |
CHRONOLOGIE
| Date | Événement |
|---|---|
| 2006 | Lancement de CUDA — 1ère version, usage scientifique et calcul HPC |
| 2012 | AlexNet gagne ImageNet grâce aux GPU NVIDIA — naissance du Deep Learning |
| 2016 | NVIDIA lance le Pascal P100 — 1ère puce GPU dédiée IA, 10x perf vs CPU |
| 2020 | Ampere A100 : 312 TOPS, devient le standard des data centers cloud |
| Oct 2022 | Export controls US : A100/H100 interdits à la Chine |
| Nov 2022 | ChatGPT lancé par OpenAI — boom IA, demande H100 explose |
| Jan 2024 | NVIDIA dépasse Intel, puis Amazon en capitalisation boursière |
| Mar 2024 | GTC 2024 : lancement Blackwell B100/B200 — Jensen Huang annonce "le moment iPhone de l'IA" |
| Avr 2024 | H20 restreint pour la Chine — quasi-ban total sur les GPU IA |
| Jan 2026 | NVIDIA dépasse Apple : #1 capitalisation mondiale — 3 400 Md$ |
| Fév 2026 | Q4 FY2026 : 39,3 Md$ trimestriel, +78 % sur un an |
SCÉNARIOS
| Scénario | Probabilité | Horizon | Impact |
|---|---|---|---|
| Domination CUDA maintenue (>80 % marché) | 45 % | 2026-2030 | Marges record, valorisation soutenue |
| Érosion douce (70-80 %, hyperscalers custom) | 35 % | 2027-2032 | Croissance ralentie, rentabilité forte |
| Disruption architecturale (NPU inference >> GPU training) | 15 % | 2028-2035 | NVIDIA réinvente son stack ou perd le leadership |
| Réglementation antitrust CUDA (UE/US) | 5 % | 2027-2030 | Ouverture forcée de l'écosystème |
""CUDA n'est pas un produit — c'est le fossé le plus profond que l'industrie technologique ait jamais creusé. On ne change pas de GPU comme on change de fournisseur cloud."
ENJEUX STRATÉGIQUES 2026-2030
L'enjeu principal n'est plus la domination sur l'entraînement des modèles — elle est acquise. Il se déplace vers l'inférence : le déploiement des modèles en production à grande échelle. L'inférence représente déjà 40 % de la demande GPU en 2026 et devrait dépasser 60 % en 2028. C'est précisément sur ce segment que les alternatives se multiplient : TPU, Trainium, MTIA sont tous optimisés pour l'inférence à faible latence, avec une efficacité énergétique souvent supérieure au H100 pour ce cas d'usage. NVIDIA a anticipé ce risque avec l'architecture NIM (NVIDIA Inference Microservices) et la plateforme Triton, qui étendent le moat CUDA à l'inférence. Mais la bataille est moins gagnée que pour l'entraînement : les API d'inférence sont standardisées (OpenAI API, Hugging Face), ce qui rend l'interchangeabilité plus facile.
Le deuxième risque est réglementaire : la Commission Européenne et le DOJ américain ont ouvert des enquêtes préliminaires sur le positionnement de CUDA comme standard de facto potentiellement anticoncurrentiel. Une enquête antitrust CUDA représenterait le risque existentiel le plus sérieux pour NVIDIA à horizon 2027-2030 — bien plus que tout concurrent hardware.
| Indicateur à surveiller | Signal haussier | Signal baissier |
|---|---|---|
| Part GPU NVIDIA dans l'inférence | >70 % maintenu en 2028 | <60 % en 2028 |
| Adoption ROCm par les hyperscalers | <5 % stable | >10 % sur 2 ans |
| Enquête antitrust CUDA (UE/US) | Classement sans suite | Ouverture formelle de procédure |
| Revenus custom silicon hyperscalers | Marginal vs total CAPEX | >30 % des workloads IA |
