« Combien de puissance de calcul à acheter ? Tout » : Le co-fondateur d'OpenAI affirme que 1100 milliards de dollars ne suffisent toujours pas à répondre à la demande, la pré-formation s'oriente désormais vers une optimisation conjointe des coûts

BlockBeatNews

Selon le suivi de 1M AI News, le cofondateur d’OpenAI, Greg Brockman, a, lors d’une interview, évoqué la progression spectaculaire des capacités de programmation de l’IA en décembre 2025. Il a utilisé, pour mesurer l’avancée, un test qu’il conserve depuis des années : faire construire par l’IA un site web qu’il avait, à l’époque, mis plusieurs mois à apprendre à programmer et à terminer. Sur l’ensemble de l’année 2025, cette tâche exigeait plusieurs cycles de prompts et environ quatre heures pour être correctement réalisée ; en décembre, un seul prompt suffit, et la qualité était excellente. Il affirme que son nouveau modèle permet à l’IA de passer de « capable de réaliser environ 20 % des tâches » à « environ 80 % », et que ce saut a contraint tout le monde à « réorganiser impérativement ses processus de travail autour de l’IA ».

Concernant l’utilisation des 110 milliards de dollars de financement, Brockman compare la puissance de calcul à « l’embauche de commerciaux » : tant que le produit dispose de canaux de vente capables d’être mis à l’échelle, embaucher davantage de commerciaux génère davantage de revenus. La puissance de calcul n’est pas un centre de coûts, mais un centre de revenus. Il se remémore une discussion avec son équipe juste avant la publication de ChatGPT : « Ils ont demandé : “De combien de puissance de calcul avons-nous besoin ?” J’ai dit : “Toute.” Ils ont dit : “Non non non, sérieusement, de combien exactement ?” J’ai dit : “Peu importe comment on construit, on ne pourra pas suivre la demande.” » Ce constat reste valable à ce jour, et l’achat de puissance de calcul doit être verrouillé 18 à 24 mois à l’avance.

Au sujet de la manière d’utiliser cette puissance de calcul, Brockman révèle qu’OpenAI ne cherche plus à tout prix à maximiser la taille de l’entraînement préalable, mais qu’elle fait de la capacité de pré-entraînement et du coût d’inférence des objectifs d’optimisation conjointe : « Vous n’avez pas forcément besoin d’être aussi grand que possible, parce que vous devez aussi tenir compte de l’importante quantité de scénarios d’utilisation en aval, où il y a beaucoup d’inférence. Ce que vous voulez vraiment, c’est la solution optimale en termes d’intelligence multipliée par le coût. » Mais il s’oppose clairement à l’idée que « le pré-entraînement n’est plus important », estimant qu’un modèle de base plus intelligent améliore l’efficacité des étapes ultérieures d’apprentissage par renforcement et d’inférence et que, par conséquent, il « faut absolument » encore des GPU Nvidia pour soutenir un entraînement centralisé à grande échelle.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire