L’hallucination de l’IA (hallucination) reste encore aujourd’hui l’un des problèmes les plus pénibles pour les grands modèles de langage (LLM), mais le professeur de l’ @E0@ ( @E0@ ) Ethan Mollick, de l’@E0@ , a proposé sur X un point de vue des plus intéressants : pendant des centaines d’années, les humains ont déjà développé des mécanismes mûrs, capables d’obtenir des sorties fiables à partir de sources peu fiables — ces mécanismes s’appellent des « structures organisationnelles » (organizational structures), et nous pouvons tout à fait appliquer des méthodes similaires à l’IA. Ce tweet a recueilli 329 cœurs, 35 partages et 44 réponses, ce qui a déclenché un débat approfondi sur la manière de faire face concrètement aux hallucinations de l’IA.
Qu’est-ce qu’une analogie de « structures organisationnelles » ?
L’argument central de Mollick pointe du doigt un fait souvent négligé : les humains ne sont jamais des sources d’information parfaitement fiables. Historiquement, que ce soit des écritures comptables, des diagnostics médicaux ou des décisions juridiques, les sorties humaines comportent toujours un risque d’erreur. Pourtant, la civilisation fonctionne normalement parce que nous avons développé tout un ensemble de « structures organisationnelles » pour maîtriser ces risques.
Ces structures organisationnelles sont essentiellement une suite de machines de « détection des erreurs » extrêmement sophistiquées : grâce à la division du travail, aux validations hiérarchiques, aux vérifications croisées et à des processus institutionnalisés, on transforme l’irrfiabilité des individus en fiabilité au niveau du système. Mollick estime qu’au lieu de s’acharner à rechercher une « IA qui ne se trompe jamais », il vaut mieux changer de perspective : comme nous le faisons pour nos employés humains, il faut mettre en place pour l’IA un système structuré de contrôle qualité.
Méthodes d’application concrètes : revues, tests et vérifications croisées
Dans les discussions qui ont suivi le tweet, Mollick et d’autres participants ont examiné plus en détail plusieurs méthodes concrètes pouvant être directement inspirées par la gestion organisationnelle. D’abord, les « mécanismes de revue » (reviews) : comme les responsables qui valident en entreprise ou comme l’évaluation par les pairs, on fait procéder à un examen systématique des sorties du LLM par un autre modèle d’IA ou par un expert humain.
Ensuite, les « mécanismes de tests » (tests) : semblables aux tests unitaires et aux processus d’assurance qualité dans le développement logiciel, ils définissent des critères vérifiables pour chaque sortie de l’IA. Troisièmement, les « vérifications croisées » (cross-checks) : plusieurs modèles d’IA ou sources d’information indépendants répondent à la même question, puis on compare la cohérence des résultats — comme, au sein d’une organisation, les différents départements qui s’équilibrent et se contrebalancent.
La logique commune de ces méthodes est la suivante : ne pas s’appuyer sur la perfection d’un seul nœud, mais réduire le taux d’erreur global grâce à une conception systémique. Cela rejoint tout à fait la notion du « modèle du fromage suisse » (Swiss Cheese Model) dans la théorie moderne de la gestion de la qualité — chaque couche de protection a des failles, mais une fois empilées, les chances que les erreurs traversent tous les niveaux sont fortement réduites.
Enseignements pour le déploiement de l’IA en entreprise
La grille de pensée de Mollick est particulièrement inspirante pour les entreprises qui intègrent actuellement l’IA. Face au problème des hallucinations de l’IA, beaucoup d’entreprises tombent souvent dans deux extrêmes : soit, par peur de se tromper, elles n’osent pas utiliser l’IA du tout ; soit, elles font trop confiance aux sorties de l’IA et négligent la vérification. La pensée axée sur la conception organisationnelle ouvre une voie médiane : admettre que l’IA commet des erreurs, mais, grâce à la conception institutionnelle, contenir ces erreurs dans une plage acceptable.
Concrètement, les entreprises peuvent mettre en place un « processus de gestion de la qualité de l’IA » : considérer l’IA comme un « employé » au sein de l’organisation, lui fournir des mécanismes de revue, définir des limites claires de responsabilités, mettre en place un système de détection des anomalies, et conserver une validation humaine lors des étapes clés de décision. Cette approche est non seulement plus pragmatique, mais elle correspond aussi davantage à la logique de management que les entreprises connaissent déjà. Pour l’industrie de l’IA, le point de vue de Mollick nous rappelle ceci : la réponse pour résoudre les hallucinations de l’IA ne se trouve peut-être pas seulement au niveau technique, mais aussi dans une reconsidération de l’architecture organisationnelle de la collaboration homme-machine.
Cet article Professeur de Wharton Ethan Mollick : résoudre le problème des hallucinations de l’IA avec une pensée de « conception organisationnelle » est apparu en premier sur Chaîne d’actualité ABMedia.