
IA et gouvernance : un cabinet de conseil contraint de rembourser 250 000 euros de prestation à son client et une réputation malhereusement entâchée
250 000 euros pour un rapport présentant de fautes et de fausses références ? C’est ce que le Ministère Australien de l’Emploi a déboursé pour une prestation de conseil auprès de l’un des Big 4 reconnu dans le monde. Selon les informations du Figaro, leur méthode de travail incluerait de l’IA, ce qui leur aurait permis de produire un document de 237 pages, comprenant de fausses informations.
Au regard du défaut de qualité de la prestation, il s’est résigné à rembourser la somme des 250 000 euros, soit environ 440 000 dollars australiens.
De très fortes sommes et des relations partenaires en jeu, peuvent être remises en question à cause de l’IA. Un nuage gris, en terme de réputation d’entreprise.
C’est une affaire qui soulève des problématiques profondes : jusqu’où peut-on déléguer la réflexion à l’IA ? Quelle utilisation et quel usage peut-on faire de l’IA lorsqu’il s’agit de tâches complexes ? Et surtout , quelles sont les politiques de gouvernance à mettre en place pour éviter ce type de dérive ?
Les limites de l’IA dans les tâches complexes (à forte valeur cognitive)
Pour moi, cette situation révèle beaucoup. Dans mes premiers écrits en mai 2025 « Intelligence artificielle, ressources humaines, carrières, entreprises : quels changements à prévoir ? », je me projetais sur les questions d’usages de l’IA dans le cadre de tâches complexes. Cette situation donnée nous démontre qu’il y a un recul à conserver sur les résultats de tâches complexes produites par l’IA.
Par là, j’entends les tâches qui engagent de la réflexion poussée. Pourquoi ? Ici, nous sommes dans un cas où c’est un Ministère public qui paye un cabinet de conseil pour des analyses et recommandations stratégiques, sur un sujet de politique publiques (Ministère de l’emploi) … Ce ne sont pas des sujets simples.
Le rôle du management dans la gouvernance de l’IA
Si je devais me mettre à la place d’un manager ou d’un Directeur, je me demanderais quel type de politiques de gouvernance sont à mettre en œuvre autour de l’IA si je devais l’intégrer dans les processus.
Ici, la mission était de réaliser des synthèses d’informations et des recommandations efficaces. Autour de cela réside des enjeux de qualité de l’information.
Le vrai risque : la confiance aveugle ou la négligence face à la technologie
Cette situation (présence de fautes et de fausses références) laissent entendre que les vérifications ou révisions n’ont pas été totalement réalisées. Le problème n’est pas l’IA en elle-même, mais l’absence potentielle de contrôle qualité.
Plusieurs raisons peuvent être évoquées :
- confiance en l’IA à 100 %,
- Manque de ressources (temps, personnel pour vérifier) les 237 pages
- Négligence avant-validation
Dans tous les cas, le résultat est le même : une perte de crédibilité et d’argent.
Vers une gouvernance responsable de l’IA
Au regard de cette situation, les grandes organisations qui implémentent l’IA dans leurs processus devraient penser un cadre strict de contrôle qualité, lorsqu’elle intervient sur des tâches complexes.
Quelques pistes :
- Créer un référentiel listant les niveaux de complexité des projets et tâches où l’IA peut intervenir ou non,
- Mettre en place des tests et vérifications systématiques (contrôles)
- Définir des critères de qualité adaptés aux productions générées par IA,
- Comparer les résultats de l’IA avec les standards de qualité classiques appliqués aux rapports humains.
À mon sens, il est nécessaire de garder le recul humain, face aux résultats produits par l’IA avant toute révision finale et de limiter les erreurs potentielles liées à un usage inadéquat. L’IA doit assister la réflexion, pas la remplacer.
