OpenAI a lancé un plan d'expansion matérielle d'une valeur de 300 milliards de dollars, intégrant ses fournisseurs de puces, financiers et fournisseurs d'énergie dans une boucle de rétroaction. Cependant, une enquête bancaire américaine d'octobre montre que 54% des gestionnaires de fonds estiment que l'IA est une bulle, et si le déploiement prend du retard par rapport au calendrier de livraison, cela pourrait amplifier la fluctuation du marché.
OpenAI 16 Disposition de la chaîne d'approvisionnement de l'empire de calcul de 16 gigawatts
L'accord pluriannuel entre OpenAI, AMD et Broadcom constitue le cœur de ce projet de 300 milliards de dollars. AMD fournira 6 gigawatts de GPU Instinct et accordera à OpenAI des bons de souscription d'actions liés aux jalons de performance, tandis que Broadcom co-conceptera et déploiera 10 gigawatts de puces sur mesure et de systèmes de racks pendant la même période. Ces transactions seront livrées progressivement entre 2026 et 2029, totalisant environ 16 gigawatts de nouvelles capacités de calcul.
Données clés du plan d'expansion matérielle d'OpenAI :
Partenariat AMD : 6 GW de GPU Instinct, déploiement initial prévu au second semestre 2026, des bons de souscription basés sur des jalons pouvant permettre d'obtenir jusqu'à 160 millions d'actions AMD.
Partenariat avec Broadcom : 10 GW d'accélérateurs et de racks personnalisés, conçus en collaboration avec OpenAI, achevés d'ici fin 2029.
Projet Stargate : 4,5-5,5 gigawatts, en collaboration avec Oracle et SoftBank, construction par phases sur cinq sites aux États-Unis, plus de 300 milliards de dollars en cinq ans.
Capacité de calcul totale : environ 16 gigawatts, équivalant à la consommation totale d'électricité de certains petits pays.
Ces accords sont la base du projet de construction de la porte des étoiles en collaboration avec Oracle et SoftBank, un projet d'extension de cinq sites aux États-Unis, qui pourrait être le plus grand projet d'infrastructure financé par des fonds privés de l'histoire de la technologie. OpenAI a déclaré que le déploiement de Broadcom sera achevé d'ici la fin de 2029, ce qui signifie que la durée totale du plan d'expansion s'étend sur 4 ans.
Modèle d'économie circulaire : Liaison entre l'équité des fournisseurs et la demande
La structure de ces accords pointe vers un modèle économique circulaire pour les infrastructures d'IA, où le capital, les incitations en actions et les obligations d'achat sont interconnectés entre les fournisseurs, les prestataires d'infrastructures et les opérateurs de modèles. L'arrangement d'AMD lie les futures livraisons de GPU à des bons de souscription basés sur des jalons, ce qui permet à OpenAI de bénéficier d'une exposition à la performance des actions d'AMD, créant ainsi un cycle de rétroaction entre l'évaluation des fournisseurs et le chemin d'expansion de la capacité des clients.
En même temps, Nvidia a révélé un peu plus tôt cette année qu'elle détenait environ 7 % des actions de CoreWeave, tandis que CoreWeave a élargi son accord avec OpenAI à 6,5 milliards de dollars, portant la valeur totale des contrats à environ 22,4 milliards de dollars d'ici 2025, reliant les actions des fournisseurs de puces, les revenus des sociétés de location d'infrastructure et la consommation de calcul d'OpenAI sur la même chaîne.
Bloomberg a également rapporté sur le cycle de financement des fournisseurs, impliquant l'engagement de Nvidia à fournir jusqu'à 100 milliards de dollars pour l'acquisition de puces par OpenAI, ce qui constitue une partie de la demande de financement fournie par les fournisseurs eux-mêmes. Cette structure crée un cycle auto-renforçant : les fournisseurs offrent un financement et des incitations en actions, OpenAI augmente ses achats, les actions des fournisseurs montent, OpenAI profite des bons de souscription, et a ainsi plus de fonds pour continuer ses acquisitions.
Ce modèle cyclique a suscité de vives débats à Wall Street. Les partisans estiment qu'il s'agit d'un modèle d'efficacité capital innovant, tandis que les opposants avertissent qu'il pourrait se transformer en machine à bulles. Lorsque les intérêts des fournisseurs, des clients et des financiers sont si étroitement liés, dès qu'un maillon rencontre un problème, l'ensemble de la chaîne pourrait s'effondrer.
Défi épique de la demande d'énergie AI sur le réseau électrique
En matière d'énergie, la disponibilité du réseau électrique et le coût de livraison par mégawattheure déterminent la vitesse de viabilité de l'expansion du modèle. Goldman Sachs prévoit qu'en 2030, la demande en électricité des centres de données dans le monde augmentera d'environ 165 % par rapport à 2023. Avec la mise en ligne de nouveaux clusters entre 2026 et 2029, cette tendance poussera les opérateurs de centres de données vers des contrats d'achat d'électricité à long terme, la production d'électricité sur site et des changements de localisation.
Les médias de l'industrie citent un rapport de McKinsey qui estime qu'en 2030, les centres de données américains pourraient consommer plus de 14 % de l'électricité du pays, avec un taux de croissance composé d'environ 25 %. Si les délais de file d'attente interconnectés et les calendriers de permis sont prolongés par rapport à la livraison du matériel, le risque de planification augmentera. La capacité de calcul de 16 GW d'OpenAI signifie qu'environ 140 térawattheures (TWh) d'électricité seront nécessaires chaque année, ce qui équivaut à la consommation électrique annuelle de l'État de New York.
Cette demande énergétique entraîne de multiples défis. Tout d'abord, les infrastructures du réseau électrique peuvent-elles soutenir une croissance aussi rapide ? Dans de nombreuses régions des États-Unis, les réseaux électriques sont déjà vieillissants, et une augmentation de 14 % de la charge nécessitera des investissements massifs pour les mettre à niveau. Deuxièmement, comment résoudre la tension entre la pression de la transition vers des énergies propres et la demande énergétique de l'IA ? Si les centres de données dépendent de la production d'électricité à partir de combustibles fossiles, cela sera en conflit avec les objectifs mondiaux de réduction des émissions de carbone. Troisièmement, l'augmentation des prix de l'électricité pourrait faire exploser les coûts d'entraînement et de raisonnement de l'IA, érodant la viabilité des modèles commerciaux.
54% Les gestionnaires de fonds avertissent des bulles et des risques d'exécution
Une perspective prospective dépend de trois seuils d'exécution : l'utilisation, la consommation d'énergie et la courbe des coûts. En termes d'utilisation, la capacité annoncée par AMD, Broadcom et Stargate devrait augmenter considérablement à deux chiffres en gigawatts d'ici 2029, tandis que les revenus de l'IA d'entreprise doivent se développer à grande échelle pour maintenir le taux d'occupation des clusters au-dessus du seuil permettant d'obtenir un retour sur investissement significatif.
Une enquête de Bank of America en octobre a révélé que 54 % des gestionnaires de fonds considèrent que l'IA est une bulle, avec un solde de liquidités proche de 3,8 %. Si le déploiement est en retard par rapport au calendrier de livraison, cette situation pourrait amplifier la fluctuation du marché dans son ensemble. La concentration des indices a ajouté une autre dimension macroéconomique, car d'ici la mi-2025, les “Sept Mercenaires” (Magnificent Seven) représenteront environ un tiers de la capitalisation boursière de l'indice S&P 500, ce qui renforce la sensibilité des portefeuilles passifs aux flux d'actualités sur l'IA et aux variations des directives des dépenses en capital.
Le chemin de la réglementation reste incertain, bien que l'Autorité britannique de la concurrence et des marchés ait conclu en mars 2025 que la collaboration entre Microsoft et OpenAI ne remplissait pas les conditions d'une enquête sur les fusions, il se peut que ce critère soit réexaminé si de nouveaux arrangements de fourniture liés aux actions aggravent les préoccupations concernant le pouvoir de marché relatif à l'accès et à la tarification.
Le risque d'exécution réside dans la chaîne d'outils, l'emballage et la bande passante mémoire, l'échéancier commençant au second semestre 2026 et se développant pendant plusieurs années jusqu'en 2029. Par conséquent, les résultats financiers des fournisseurs et des opérateurs suivront la rapidité avec laquelle ces revenus apparaissent dans les taux de rentabilité d'audit et les prix des contrats. La question du portefeuille et de la planification financière est de savoir comment les gigawatts annoncés correspondent à la croissance de la charge de travail réalisée, à la capacité de transport d'électricité régionale et à la trajectoire des coûts d'ici 2028.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
OpenAI lance un plan d'expansion matérielle de 300 milliards de dollars ! 54 % des gestionnaires de fonds avertissent d'une bulle AI.
OpenAI a lancé un plan d'expansion matérielle d'une valeur de 300 milliards de dollars, intégrant ses fournisseurs de puces, financiers et fournisseurs d'énergie dans une boucle de rétroaction. Cependant, une enquête bancaire américaine d'octobre montre que 54% des gestionnaires de fonds estiment que l'IA est une bulle, et si le déploiement prend du retard par rapport au calendrier de livraison, cela pourrait amplifier la fluctuation du marché.
OpenAI 16 Disposition de la chaîne d'approvisionnement de l'empire de calcul de 16 gigawatts
L'accord pluriannuel entre OpenAI, AMD et Broadcom constitue le cœur de ce projet de 300 milliards de dollars. AMD fournira 6 gigawatts de GPU Instinct et accordera à OpenAI des bons de souscription d'actions liés aux jalons de performance, tandis que Broadcom co-conceptera et déploiera 10 gigawatts de puces sur mesure et de systèmes de racks pendant la même période. Ces transactions seront livrées progressivement entre 2026 et 2029, totalisant environ 16 gigawatts de nouvelles capacités de calcul.
Données clés du plan d'expansion matérielle d'OpenAI :
Partenariat AMD : 6 GW de GPU Instinct, déploiement initial prévu au second semestre 2026, des bons de souscription basés sur des jalons pouvant permettre d'obtenir jusqu'à 160 millions d'actions AMD.
Partenariat avec Broadcom : 10 GW d'accélérateurs et de racks personnalisés, conçus en collaboration avec OpenAI, achevés d'ici fin 2029.
Projet Stargate : 4,5-5,5 gigawatts, en collaboration avec Oracle et SoftBank, construction par phases sur cinq sites aux États-Unis, plus de 300 milliards de dollars en cinq ans.
Capacité de calcul totale : environ 16 gigawatts, équivalant à la consommation totale d'électricité de certains petits pays.
Ces accords sont la base du projet de construction de la porte des étoiles en collaboration avec Oracle et SoftBank, un projet d'extension de cinq sites aux États-Unis, qui pourrait être le plus grand projet d'infrastructure financé par des fonds privés de l'histoire de la technologie. OpenAI a déclaré que le déploiement de Broadcom sera achevé d'ici la fin de 2029, ce qui signifie que la durée totale du plan d'expansion s'étend sur 4 ans.
Modèle d'économie circulaire : Liaison entre l'équité des fournisseurs et la demande
La structure de ces accords pointe vers un modèle économique circulaire pour les infrastructures d'IA, où le capital, les incitations en actions et les obligations d'achat sont interconnectés entre les fournisseurs, les prestataires d'infrastructures et les opérateurs de modèles. L'arrangement d'AMD lie les futures livraisons de GPU à des bons de souscription basés sur des jalons, ce qui permet à OpenAI de bénéficier d'une exposition à la performance des actions d'AMD, créant ainsi un cycle de rétroaction entre l'évaluation des fournisseurs et le chemin d'expansion de la capacité des clients.
En même temps, Nvidia a révélé un peu plus tôt cette année qu'elle détenait environ 7 % des actions de CoreWeave, tandis que CoreWeave a élargi son accord avec OpenAI à 6,5 milliards de dollars, portant la valeur totale des contrats à environ 22,4 milliards de dollars d'ici 2025, reliant les actions des fournisseurs de puces, les revenus des sociétés de location d'infrastructure et la consommation de calcul d'OpenAI sur la même chaîne.
Bloomberg a également rapporté sur le cycle de financement des fournisseurs, impliquant l'engagement de Nvidia à fournir jusqu'à 100 milliards de dollars pour l'acquisition de puces par OpenAI, ce qui constitue une partie de la demande de financement fournie par les fournisseurs eux-mêmes. Cette structure crée un cycle auto-renforçant : les fournisseurs offrent un financement et des incitations en actions, OpenAI augmente ses achats, les actions des fournisseurs montent, OpenAI profite des bons de souscription, et a ainsi plus de fonds pour continuer ses acquisitions.
Ce modèle cyclique a suscité de vives débats à Wall Street. Les partisans estiment qu'il s'agit d'un modèle d'efficacité capital innovant, tandis que les opposants avertissent qu'il pourrait se transformer en machine à bulles. Lorsque les intérêts des fournisseurs, des clients et des financiers sont si étroitement liés, dès qu'un maillon rencontre un problème, l'ensemble de la chaîne pourrait s'effondrer.
Défi épique de la demande d'énergie AI sur le réseau électrique
En matière d'énergie, la disponibilité du réseau électrique et le coût de livraison par mégawattheure déterminent la vitesse de viabilité de l'expansion du modèle. Goldman Sachs prévoit qu'en 2030, la demande en électricité des centres de données dans le monde augmentera d'environ 165 % par rapport à 2023. Avec la mise en ligne de nouveaux clusters entre 2026 et 2029, cette tendance poussera les opérateurs de centres de données vers des contrats d'achat d'électricité à long terme, la production d'électricité sur site et des changements de localisation.
Les médias de l'industrie citent un rapport de McKinsey qui estime qu'en 2030, les centres de données américains pourraient consommer plus de 14 % de l'électricité du pays, avec un taux de croissance composé d'environ 25 %. Si les délais de file d'attente interconnectés et les calendriers de permis sont prolongés par rapport à la livraison du matériel, le risque de planification augmentera. La capacité de calcul de 16 GW d'OpenAI signifie qu'environ 140 térawattheures (TWh) d'électricité seront nécessaires chaque année, ce qui équivaut à la consommation électrique annuelle de l'État de New York.
Cette demande énergétique entraîne de multiples défis. Tout d'abord, les infrastructures du réseau électrique peuvent-elles soutenir une croissance aussi rapide ? Dans de nombreuses régions des États-Unis, les réseaux électriques sont déjà vieillissants, et une augmentation de 14 % de la charge nécessitera des investissements massifs pour les mettre à niveau. Deuxièmement, comment résoudre la tension entre la pression de la transition vers des énergies propres et la demande énergétique de l'IA ? Si les centres de données dépendent de la production d'électricité à partir de combustibles fossiles, cela sera en conflit avec les objectifs mondiaux de réduction des émissions de carbone. Troisièmement, l'augmentation des prix de l'électricité pourrait faire exploser les coûts d'entraînement et de raisonnement de l'IA, érodant la viabilité des modèles commerciaux.
54% Les gestionnaires de fonds avertissent des bulles et des risques d'exécution
Une perspective prospective dépend de trois seuils d'exécution : l'utilisation, la consommation d'énergie et la courbe des coûts. En termes d'utilisation, la capacité annoncée par AMD, Broadcom et Stargate devrait augmenter considérablement à deux chiffres en gigawatts d'ici 2029, tandis que les revenus de l'IA d'entreprise doivent se développer à grande échelle pour maintenir le taux d'occupation des clusters au-dessus du seuil permettant d'obtenir un retour sur investissement significatif.
Une enquête de Bank of America en octobre a révélé que 54 % des gestionnaires de fonds considèrent que l'IA est une bulle, avec un solde de liquidités proche de 3,8 %. Si le déploiement est en retard par rapport au calendrier de livraison, cette situation pourrait amplifier la fluctuation du marché dans son ensemble. La concentration des indices a ajouté une autre dimension macroéconomique, car d'ici la mi-2025, les “Sept Mercenaires” (Magnificent Seven) représenteront environ un tiers de la capitalisation boursière de l'indice S&P 500, ce qui renforce la sensibilité des portefeuilles passifs aux flux d'actualités sur l'IA et aux variations des directives des dépenses en capital.
Le chemin de la réglementation reste incertain, bien que l'Autorité britannique de la concurrence et des marchés ait conclu en mars 2025 que la collaboration entre Microsoft et OpenAI ne remplissait pas les conditions d'une enquête sur les fusions, il se peut que ce critère soit réexaminé si de nouveaux arrangements de fourniture liés aux actions aggravent les préoccupations concernant le pouvoir de marché relatif à l'accès et à la tarification.
Le risque d'exécution réside dans la chaîne d'outils, l'emballage et la bande passante mémoire, l'échéancier commençant au second semestre 2026 et se développant pendant plusieurs années jusqu'en 2029. Par conséquent, les résultats financiers des fournisseurs et des opérateurs suivront la rapidité avec laquelle ces revenus apparaissent dans les taux de rentabilité d'audit et les prix des contrats. La question du portefeuille et de la planification financière est de savoir comment les gigawatts annoncés correspondent à la croissance de la charge de travail réalisée, à la capacité de transport d'électricité régionale et à la trajectoire des coûts d'ici 2028.