Le 8 janvier 2026, Zhipu a marqué une étape historique en devenant la première entreprise au monde à être cotée en bourse avec un grand modèle de langage — un exploit remarquable que ni les analystes ni les concurrents n’avaient anticipé possible. Le même jour, Tang Jie, professeur d’informatique à l’Université Tsinghua et visionnaire fondateur de Zhipu, a dévoilé une lettre interne détaillée qui signalait une recalibration stratégique radicale. Plutôt que de célébrer des victoires commerciales, le message de Jie mettait l’accent sur un retour philosophique : la poursuite incessante de l’excellence des modèles fondamentaux comme seule voie vers l’intelligence artificielle générale. La lettre rejette les discours de commercialisation à court terme pour plutôt articuler un ambitieux programme 2026 centré sur le lancement imminent de GLM-5, accompagné de trois axes technologiques transformateurs — architectures de modèles innovantes, apprentissage par renforcement généralisé, et capacités d’apprentissage continu.
La conversation café qui a redéfini la mission de Zhipu
Lors d’une visite au laboratoire-café de l’Université des Sciences et Technologies de Hong Kong, Tang Jie a rencontré le professeur distingué Yang Qiang et partagé une observation décontractée : il avait récemment consommé trop de café. La réponse de Yang a complètement changé la perspective : « La dépendance n’est pas forcément négative. Imagine si nous pouvions canaliser notre addiction au café vers la recherche avec la même intensité — ne réaliserions-nous pas des choses extraordinaires ? » Ce simple échange résume la philosophie fondamentale de Zhipu et la vision du monde de Jie.
Depuis la création officielle de Zhipu en 2019, l’entreprise opère selon un principe unificateur — « faire penser les machines comme des humains ». L’inspiration remonte à 2018, lorsque Tang Jie et son collectif de recherche ont conçu un système cognitif machine intégrant la théorie du double système issue de la psychologie cognitive humaine, mariant paradigmes de pensée rapide et lente. Pourtant, malgré plus de trois ans de développement rapide dans l’industrie depuis l’émergence de ChatGPT, Tang Jie a récemment constaté lors de discussions internes que « il n’y a toujours pas de consensus véritable dans l’industrie ; tout le monde avance par essais et erreurs. »
De GLM-130B à la reconnaissance SOTA : le tournant technique
Le parcours technique de Zhipu révèle une tendance à prendre des risques calculés, souvent en défiant l’orthodoxie industrielle. En 2020, lorsque les modèles de taille BERT dominaient le discours, l’entreprise a lancé son architecture algorithmique propriétaire GLM et entraîné un modèle de base de 10 milliards de paramètres — un mouvement audacieux qui a attiré des adopteurs précoces comme Meituan. Mais cette réussite restait éloignée de l’aspiration à une IA générale, en raison de limitations architecturales : bases de connaissances insuffisantes et absence de capacités de raisonnement au niveau humain.
La période 2021-2022 s’est révélée décisive. Alors que la plupart des acteurs de l’industrie rejetaient la vision de « machines pensant comme des humains » comme une utopie, Zhipu a intensifié ses efforts. La société a entraîné un modèle de 130 milliards de paramètres sur des ensembles de données exponentiellement agrandis, créant deux divisions d’innovation parallèles en autonomie opérationnelle : l’équipe de recherche GLM, concentrée sur l’entraînement des modèles, et une autre équipe développant la plateforme MaaS qui alimentera finalement bigmodel.cn. Mi-2022, GLM-130B a réalisé des avancées techniques qui ont attiré l’attention mondiale, tout en accumulant les premiers utilisateurs API en production — une validation critique qui distingue Zhipu des laboratoires de recherche purs.
Le phénomène DeepSeek, cependant, a bouleversé la dynamique concurrentielle. Son apparition en 2025 a créé ce que les observateurs qualifiaient de « onde de choc parmi les entreprises chinoises de grands modèles », impactant particulièrement Zhipu en raison de la similarité des équipes de recherche académique et des contributions à l’écosystème open source. Plutôt que de se replier, Tang Jie a reformulé cette pression concurrentielle comme une clarification : « DeepSeek nous a réveillés », catalysant une « reinforcement » systématique dans les domaines technique et commercial.
La convergence GLM : comment Zhipu a rejoint la frontière mondiale
L’exécution de Zhipu en 2025 par rapport à ses jalons stratégiques internes s’est révélée remarquablement précise. La société a lancé en avril un modèle « stabilisateur » (GLM-4.1), obtenu le statut de « siège à la table » à mi-année avec GLM-4.5, et a clôturé l’année avec GLM-4.7 — positionné comme un concurrent de premier plan parmi les modèles fondamentaux mondiaux. Selon les indices d’évaluation d’Artificial Analysis, GLM-4.7 a obtenu la première place nationale et a atteint une parité mondiale avec Claude 4.5 Sonnet.
Le catalyseur de cette avancée, de façon inattendue, a été la programmation. Alors que le marché général sombrait dans la guerre des prix et la banalisation, Zhipu a identifié la génération de code comme le point d’entrée précis pour se différencier. Le lancement de GLM-4.5 en juillet est devenu l’engagement décisif — avec des équipes techniques, plateforme et commerciales opérant en mode sprint à haute tension. Après cette victoire, les versions GLM-4.6 et GLM-4.7 ont systématisé cet avantage : des développeurs de 184 pays (plus de 150 000 personnes) ont participé au Plan de codage GLM, générant à la fois enthousiasme professionnel et une adoption mesurable.
L’explosion des revenus : la validation économique de MaaS
La validation commerciale a été sans appel. En seulement dix mois, le chiffre d’affaires annuel de la plateforme MaaS de Zhipu est passé de 20 millions à 500 millions — une multiplication par vingt-cinq qui bouleverse fondamentalement le calcul du ROI concurrentiel. Notamment, les revenus étrangers ont dépassé 200 millions, suggérant que les marchés hors Chine représentent environ 40 % de l’économie de la plateforme. Ce résultat contraste fortement avec les discours publics laissant entendre que l’économie des grands modèles chinois reste immature.
L’aspect international mérite une attention particulière. L’initiative « AI Souveraine » de Zhipu a exploité l’infrastructure nationale MaaS de la Malaisie pour établir GLM comme le modèle de grande taille officiel du pays — premier cas documenté de technologie de modèle fondamental chinois intégrée au gouvernement à l’échelle mondiale. Tang Jie a attribué cette avancée à « l’audace et la détermination » de l’équipe internationale, positionnant l’expansion à l’étranger comme une réponse stratégique à l’appel de Pékin pour que « l’IA chinoise déployée mondialement. »
Le manifeste technique 2026 de Jie : renverser les paradigmes établis
Plutôt que de poursuivre une optimisation incrémentielle, l’agenda 2026 de Tang Jie vise une disruption architecturale fondamentale. La lettre identifie quatre vecteurs prioritaires :
Lancement de GLM-5 : Grâce à une montée en puissance améliorée et à des avancées techniques multi-vectorielles, le prochain modèle promet d’offrir des capacités inégalées dans l’accomplissement de tâches réelles, établissant une nouvelle référence de performance.
Exploration de nouvelles architectures de modèles : Le paradigme Transformer — dominant depuis près de dix ans — montre ses limites croissantes dans le traitement de contextes ultra-longs, les mécanismes de mémoire, et les protocoles de mise à jour. Zhipu s’engage à découvrir de nouveaux paradigmes architecturaux tout en poursuivant l’optimisation co-conçue des puces et des algorithmes.
Apprentissage par renforcement généralisé : Les approches RLVR actuelles excellent dans des domaines limités (mathématiques, code) mais révèlent des limites structurelles face à des environnements non bornés. L’objectif 2026 vise à développer des paradigmes RL permettant aux IA de traiter et d’exécuter des tâches temporelles prolongées — allant au-delà de la simple instruction pour atteindre une véritable autonomie.
Apprentissage continu et évolution autonome : Les modèles IA en production ont une intelligence fondamentalement statique après déploiement. Ils accumulent des connaissances via des cycles d’entraînement coûteux, puis se déprécient à mesure que le contexte réel évolue. Zhipu vise à concevoir de nouveaux paradigmes d’apprentissage imitant la plasticité neuronale humaine — apprentissage en ligne et frameworks d’apprentissage continu permettant une interaction persistante avec le monde et une accumulation de capacités.
Innovation institutionnelle : le pari X-Lab sur la disruption
Conscient que l’inertie organisationnelle tend vers une optimisation incrémentielle, Zhipu a créé une division de recherche expérimentale appelée X-Lab. Conçue pour recruter via des mécanismes ouverts, X-Lab poursuit des explorations de pointe — architectures innovantes, paradigmes cognitifs émergents, incubation de projets divers — sans se limiter au logiciel. Parallèlement à l’innovation interne, Zhipu a annoncé l’expansion de ses investissements en ventures externes, ciblant explicitement la prospérité de l’écosystème plutôt que l’extraction concurrentielle à somme nulle.
Cette architecture institutionnelle reflète la conviction philosophique de Tang Jie selon laquelle « nous ne sommes pas une entreprise traditionnelle, et nous n’aspirons pas à le devenir. » Au contraire, Zhipu vise une émergence opérationnelle en tant qu’entreprise native de l’IA, où la possibilité révolutionnaire remplace l’habitude incrémentielle — utilisant l’IA elle-même pour optimiser la gouvernance, améliorer l’efficacité et assurer l’équité systémique.
La conclusion philosophique : endorphines plutôt que dopamine
Tang Jie conclut sa lettre stratégique en distinguant deux modalités de récompense concurrentes. La réussite en IPO génère une satisfaction dopaminergique momentanée — une excitation passagère. La véritable réalisation provient plutôt des endorphines accumulées sur le chemin de l’AGI : une concentration soutenue, une ancrage opérationnel, une progression persistante vers la frontière ultime de l’intelligence. La formule officielle — atteindre « l’état ultime de l’intelligence » où Z représente la culmination de l’alphabet — témoigne de l’engagement de Zhipu à se positionner en pionnier plutôt qu’en simple optimisateur de marché.
Pour les observateurs de l’industrie, l’enjeu dépasse la stratégie d’entreprise individuelle. La cotation publique de Zhipu et la repositionnement philosophique de Jie reflètent une maturation plus large du secteur : la reconnaissance que l’avantage compétitif durable ne naît pas d’une optimisation de la couche applicative, mais de capacités fondamentales — maîtrise de l’architecture des modèles, innovation dans les paradigmes d’apprentissage, et avancées théoriques incessantes. Reste à voir si cet engagement se traduira par une supériorité technique durable, mais la détermination de Tang Jie semble catégorique : le succès de Zhipu en 2026 dépendra de la concordance entre conviction philosophique et possibilité technologique.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Tang Jie repositionne Zhipu après l'IPO : le pivot stratégique vers la maîtrise du modèle de base
Le 8 janvier 2026, Zhipu a marqué une étape historique en devenant la première entreprise au monde à être cotée en bourse avec un grand modèle de langage — un exploit remarquable que ni les analystes ni les concurrents n’avaient anticipé possible. Le même jour, Tang Jie, professeur d’informatique à l’Université Tsinghua et visionnaire fondateur de Zhipu, a dévoilé une lettre interne détaillée qui signalait une recalibration stratégique radicale. Plutôt que de célébrer des victoires commerciales, le message de Jie mettait l’accent sur un retour philosophique : la poursuite incessante de l’excellence des modèles fondamentaux comme seule voie vers l’intelligence artificielle générale. La lettre rejette les discours de commercialisation à court terme pour plutôt articuler un ambitieux programme 2026 centré sur le lancement imminent de GLM-5, accompagné de trois axes technologiques transformateurs — architectures de modèles innovantes, apprentissage par renforcement généralisé, et capacités d’apprentissage continu.
La conversation café qui a redéfini la mission de Zhipu
Lors d’une visite au laboratoire-café de l’Université des Sciences et Technologies de Hong Kong, Tang Jie a rencontré le professeur distingué Yang Qiang et partagé une observation décontractée : il avait récemment consommé trop de café. La réponse de Yang a complètement changé la perspective : « La dépendance n’est pas forcément négative. Imagine si nous pouvions canaliser notre addiction au café vers la recherche avec la même intensité — ne réaliserions-nous pas des choses extraordinaires ? » Ce simple échange résume la philosophie fondamentale de Zhipu et la vision du monde de Jie.
Depuis la création officielle de Zhipu en 2019, l’entreprise opère selon un principe unificateur — « faire penser les machines comme des humains ». L’inspiration remonte à 2018, lorsque Tang Jie et son collectif de recherche ont conçu un système cognitif machine intégrant la théorie du double système issue de la psychologie cognitive humaine, mariant paradigmes de pensée rapide et lente. Pourtant, malgré plus de trois ans de développement rapide dans l’industrie depuis l’émergence de ChatGPT, Tang Jie a récemment constaté lors de discussions internes que « il n’y a toujours pas de consensus véritable dans l’industrie ; tout le monde avance par essais et erreurs. »
De GLM-130B à la reconnaissance SOTA : le tournant technique
Le parcours technique de Zhipu révèle une tendance à prendre des risques calculés, souvent en défiant l’orthodoxie industrielle. En 2020, lorsque les modèles de taille BERT dominaient le discours, l’entreprise a lancé son architecture algorithmique propriétaire GLM et entraîné un modèle de base de 10 milliards de paramètres — un mouvement audacieux qui a attiré des adopteurs précoces comme Meituan. Mais cette réussite restait éloignée de l’aspiration à une IA générale, en raison de limitations architecturales : bases de connaissances insuffisantes et absence de capacités de raisonnement au niveau humain.
La période 2021-2022 s’est révélée décisive. Alors que la plupart des acteurs de l’industrie rejetaient la vision de « machines pensant comme des humains » comme une utopie, Zhipu a intensifié ses efforts. La société a entraîné un modèle de 130 milliards de paramètres sur des ensembles de données exponentiellement agrandis, créant deux divisions d’innovation parallèles en autonomie opérationnelle : l’équipe de recherche GLM, concentrée sur l’entraînement des modèles, et une autre équipe développant la plateforme MaaS qui alimentera finalement bigmodel.cn. Mi-2022, GLM-130B a réalisé des avancées techniques qui ont attiré l’attention mondiale, tout en accumulant les premiers utilisateurs API en production — une validation critique qui distingue Zhipu des laboratoires de recherche purs.
Le phénomène DeepSeek, cependant, a bouleversé la dynamique concurrentielle. Son apparition en 2025 a créé ce que les observateurs qualifiaient de « onde de choc parmi les entreprises chinoises de grands modèles », impactant particulièrement Zhipu en raison de la similarité des équipes de recherche académique et des contributions à l’écosystème open source. Plutôt que de se replier, Tang Jie a reformulé cette pression concurrentielle comme une clarification : « DeepSeek nous a réveillés », catalysant une « reinforcement » systématique dans les domaines technique et commercial.
La convergence GLM : comment Zhipu a rejoint la frontière mondiale
L’exécution de Zhipu en 2025 par rapport à ses jalons stratégiques internes s’est révélée remarquablement précise. La société a lancé en avril un modèle « stabilisateur » (GLM-4.1), obtenu le statut de « siège à la table » à mi-année avec GLM-4.5, et a clôturé l’année avec GLM-4.7 — positionné comme un concurrent de premier plan parmi les modèles fondamentaux mondiaux. Selon les indices d’évaluation d’Artificial Analysis, GLM-4.7 a obtenu la première place nationale et a atteint une parité mondiale avec Claude 4.5 Sonnet.
Le catalyseur de cette avancée, de façon inattendue, a été la programmation. Alors que le marché général sombrait dans la guerre des prix et la banalisation, Zhipu a identifié la génération de code comme le point d’entrée précis pour se différencier. Le lancement de GLM-4.5 en juillet est devenu l’engagement décisif — avec des équipes techniques, plateforme et commerciales opérant en mode sprint à haute tension. Après cette victoire, les versions GLM-4.6 et GLM-4.7 ont systématisé cet avantage : des développeurs de 184 pays (plus de 150 000 personnes) ont participé au Plan de codage GLM, générant à la fois enthousiasme professionnel et une adoption mesurable.
L’explosion des revenus : la validation économique de MaaS
La validation commerciale a été sans appel. En seulement dix mois, le chiffre d’affaires annuel de la plateforme MaaS de Zhipu est passé de 20 millions à 500 millions — une multiplication par vingt-cinq qui bouleverse fondamentalement le calcul du ROI concurrentiel. Notamment, les revenus étrangers ont dépassé 200 millions, suggérant que les marchés hors Chine représentent environ 40 % de l’économie de la plateforme. Ce résultat contraste fortement avec les discours publics laissant entendre que l’économie des grands modèles chinois reste immature.
L’aspect international mérite une attention particulière. L’initiative « AI Souveraine » de Zhipu a exploité l’infrastructure nationale MaaS de la Malaisie pour établir GLM comme le modèle de grande taille officiel du pays — premier cas documenté de technologie de modèle fondamental chinois intégrée au gouvernement à l’échelle mondiale. Tang Jie a attribué cette avancée à « l’audace et la détermination » de l’équipe internationale, positionnant l’expansion à l’étranger comme une réponse stratégique à l’appel de Pékin pour que « l’IA chinoise déployée mondialement. »
Le manifeste technique 2026 de Jie : renverser les paradigmes établis
Plutôt que de poursuivre une optimisation incrémentielle, l’agenda 2026 de Tang Jie vise une disruption architecturale fondamentale. La lettre identifie quatre vecteurs prioritaires :
Lancement de GLM-5 : Grâce à une montée en puissance améliorée et à des avancées techniques multi-vectorielles, le prochain modèle promet d’offrir des capacités inégalées dans l’accomplissement de tâches réelles, établissant une nouvelle référence de performance.
Exploration de nouvelles architectures de modèles : Le paradigme Transformer — dominant depuis près de dix ans — montre ses limites croissantes dans le traitement de contextes ultra-longs, les mécanismes de mémoire, et les protocoles de mise à jour. Zhipu s’engage à découvrir de nouveaux paradigmes architecturaux tout en poursuivant l’optimisation co-conçue des puces et des algorithmes.
Apprentissage par renforcement généralisé : Les approches RLVR actuelles excellent dans des domaines limités (mathématiques, code) mais révèlent des limites structurelles face à des environnements non bornés. L’objectif 2026 vise à développer des paradigmes RL permettant aux IA de traiter et d’exécuter des tâches temporelles prolongées — allant au-delà de la simple instruction pour atteindre une véritable autonomie.
Apprentissage continu et évolution autonome : Les modèles IA en production ont une intelligence fondamentalement statique après déploiement. Ils accumulent des connaissances via des cycles d’entraînement coûteux, puis se déprécient à mesure que le contexte réel évolue. Zhipu vise à concevoir de nouveaux paradigmes d’apprentissage imitant la plasticité neuronale humaine — apprentissage en ligne et frameworks d’apprentissage continu permettant une interaction persistante avec le monde et une accumulation de capacités.
Innovation institutionnelle : le pari X-Lab sur la disruption
Conscient que l’inertie organisationnelle tend vers une optimisation incrémentielle, Zhipu a créé une division de recherche expérimentale appelée X-Lab. Conçue pour recruter via des mécanismes ouverts, X-Lab poursuit des explorations de pointe — architectures innovantes, paradigmes cognitifs émergents, incubation de projets divers — sans se limiter au logiciel. Parallèlement à l’innovation interne, Zhipu a annoncé l’expansion de ses investissements en ventures externes, ciblant explicitement la prospérité de l’écosystème plutôt que l’extraction concurrentielle à somme nulle.
Cette architecture institutionnelle reflète la conviction philosophique de Tang Jie selon laquelle « nous ne sommes pas une entreprise traditionnelle, et nous n’aspirons pas à le devenir. » Au contraire, Zhipu vise une émergence opérationnelle en tant qu’entreprise native de l’IA, où la possibilité révolutionnaire remplace l’habitude incrémentielle — utilisant l’IA elle-même pour optimiser la gouvernance, améliorer l’efficacité et assurer l’équité systémique.
La conclusion philosophique : endorphines plutôt que dopamine
Tang Jie conclut sa lettre stratégique en distinguant deux modalités de récompense concurrentes. La réussite en IPO génère une satisfaction dopaminergique momentanée — une excitation passagère. La véritable réalisation provient plutôt des endorphines accumulées sur le chemin de l’AGI : une concentration soutenue, une ancrage opérationnel, une progression persistante vers la frontière ultime de l’intelligence. La formule officielle — atteindre « l’état ultime de l’intelligence » où Z représente la culmination de l’alphabet — témoigne de l’engagement de Zhipu à se positionner en pionnier plutôt qu’en simple optimisateur de marché.
Pour les observateurs de l’industrie, l’enjeu dépasse la stratégie d’entreprise individuelle. La cotation publique de Zhipu et la repositionnement philosophique de Jie reflètent une maturation plus large du secteur : la reconnaissance que l’avantage compétitif durable ne naît pas d’une optimisation de la couche applicative, mais de capacités fondamentales — maîtrise de l’architecture des modèles, innovation dans les paradigmes d’apprentissage, et avancées théoriques incessantes. Reste à voir si cet engagement se traduira par une supériorité technique durable, mais la détermination de Tang Jie semble catégorique : le succès de Zhipu en 2026 dépendra de la concordance entre conviction philosophique et possibilité technologique.