Sam Altman, patron d’OpenAI, a tenté jeudi 6 novembre d’apaiser une vive polémique ouverte après des propos tenus par la directrice financière de l’entreprise. Dans un message publié sur X, il a appelé les gouvernements à construire leur « propre infrastructure » pour l’intelligence artificielle et a assuré qu’OpenAI ne cherchait pas à obtenir de « garanties publiques » pour financer ses vastes engagements en capacités de calcul. Ces déclarations interviennent au lendemain d’un échange public qui a ravivé les questions sur le financement de la course à l’IA et sur le rôle attendu des pouvoirs publics dans ce domaine stratégique.
Contexte financier : des engagements colossaux et des marges incertaines
Ces derniers mois, OpenAI a annoncé ou conclu une série d’accords ambitieux avec des fabricants de puces et des fournisseurs de cloud, représentant, selon les chiffres cités publiquement, des engagements de l’ordre de plusieurs centaines de milliards — la somme parfois avancée dans les médias atteignant 1 400 milliards de dollars sur huit ans. Ce volume a immédiatement suscité des interrogations : comment une entreprise qui annonce des revenus relativement modestes à l’échelle de ces montants et qui affiche encore des pertes substantielles peut-elle honorer de tels contrats sans recourir massivement aux marchés financiers ?
OpenAI a, selon des communiqués publics et des estimations relayées par la presse, des revenus projetés (13 milliards de dollars évoqués pour 2025 dans les éléments repris par l’article initial) et un objectif de rentabilité à horizon 2029. Entre-temps, l’entreprise perd des milliards chaque année, ce qui la place dans une situation où la combinaison d’augmentations de capital et d’emprunts semble inévitable si elle souhaite concrétiser ses engagements d’infrastructure.
Sam Altman a réagi en rejetant l’idée d’un « plan de sauvetage » public pour l’IA et en soutenant qu’un marché concurrentiel — avec plusieurs grandes entreprises capables de prendre le relais — rendrait inutile un renflouement étatique. Il a aussi évoqué pour la première fois la possibilité que OpenAI loue ses capacités de calcul à d’autres sociétés, ce qui ferait d’elle, de facto, un acteur du marché du cloud en concurrence avec Amazon, Oracle et… Microsoft, son partenaire et investisseur majeur. Cette piste, si elle était confirmée, pose des questions sur les synergies mais aussi sur les conflits d’intérêts et la stratégie commerciale d’OpenAI.
Réactions publiques et retours en arrière : une communication brouillée
La polémique a pris sa source immédiate dans les propos de Sarah Friar, directrice financière d’OpenAI, tenus lors d’une conférence organisée par le Wall Street Journal. En parlant d’un « filet de sécurité » ou d’une « garantie » attendue de la part du gouvernement, elle a déclenché une première phase de critiques. Elle a ensuite publié une clarification sur LinkedIn, affirmant qu’OpenAI ne cherchait pas de garantie gouvernementale pour ses emprunts. Sam Altman est intervenu ensuite pour confirmer cette position et appeler à une approche plus souveraine des États en matière d’infrastructure IA.
La réaction d’acteurs politiques et de commentateurs — à l’image de David Sacks, qui a demandé sur X qu’il n’y ait pas de sauvetage fédéral — a souligné la dimension idéologique et politique du débat : faut-il laisser le marché décider ou faut-il que l’État intervienne pour préserver une capacité stratégique ?
Évaluation de la fiabilité des sources citées
– Messages sur X (Sam Altman, David Sacks) : ce sont des sources primaires qui reflètent directement la position et l’opinion des acteurs concernés. Elles sont utiles pour connaître l’intention et la communication publique, mais elles doivent être lues en tenant compte des intérêts et des stratégies de communication des auteurs.
– Interventions au Wall Street Journal : une conférence organisée par un média reconnu comme le WSJ est une source de première main solide pour rapporter des déclarations. Le WSJ est une source fiable pour relayer des propos tenus publiquement, mais le contexte et la formulation exacte doivent être conservés (compte rendu intégral, enregistrement) pour éviter les erreurs d’interprétation.
– Publication LinkedIn de Sarah Friar : source primaire utile pour une clarification officielle. Comme tout message émanant d’un dirigeant, il reflète la volonté de l’entreprise de contrôler la narration et doit être recoupé avec d’autres documents (communiqués, contrats).
– Chiffres financiers et engagements (1 400 milliards, 13 milliards de revenus, rentabilité 2029) : ces montants, tels qu’ils sont présentés sans référence précise, nécessitent une vérification rigoureuse. Il faut distinguer les engagements contractuels, les prévisions internes et les estimations des analystes. La fiabilité est élevée si ces chiffres proviennent de documents officiels (rapports, communiqués d’OpenAI, déclarations de partenaires) ou d’enquêtes de la presse financière reconnue (FT, WSJ, Reuters). Sans référence explicite, ils restent à confirmer.
– Commentaires d’analystes non nommés : utiles pour mesurer le sentiment du marché, mais leur valeur dépend de la réputation et de la méthodologie des analystes cités.
En résumé, les sources citées sont un mélange de déclarations directes et de reprises médiatiques. Les premiers éléments factuels (déclarations publiques) sont fiables pour ce qu’ils rapportent ; les données chiffrées et les projections exigent quant à elles davantage de transparence et de vérification documentaire.
Que surveiller désormais ?
Demander une plus grande transparence financière d’OpenAI, surveiller les réponses gouvernementales (capacités souveraines, régulation), et vérifier si la start-up concrétise l’idée de louer ses ressources sont des points clés. L’évolution des relations commerciales avec Microsoft et des contrats avec les fournisseurs de puces déterminera en grande partie la viabilité de la stratégie d’infrastructure et le risque systémique de ce secteur en mutation.


