IA-ttention, rapport déloté

Sans supervision humaine, même les rapports les plus sérieux générés par l’IA peuvent se déliter.

Jimmy FELIX

10/14/20253 min temps de lecture

Deloitte s’est trouvé dans l’embarras à cause d’une mauvaise utilisation de l’IA dans le rapport généré pour le gouvernement australien.

Quelques lignes de réflexion !

Quand la rigueur se délègue à la machine

Dans ce rapport, que j’appelle “IA-ttention”, je me demande : est-ce le fruit d’une délégation totale à l’ intelligence artificielle (IA) ? Je pose cette question en observant à la fois une négligence absolue et une renonciation totale à la rigueur et à la responsabilité.

Le marché du conseil et de l’audit public australien (pour l’État fédéral) est estimé à environ 1,3 milliard de dollars australiens par an. Avec la présence de plusieurs firmes majeures, la concurrence y est évidemment très rude. Mais cela ne signifie pas pour autant que l’audit doive se faire auditer.

Petits contrats, grandes négligences

Pour des firmes comme Deloitte, PwC, EY et KPMG, des contrats de l’ordre de 440 000 dollars australiens (AUD) sont souvent considérés comme des petits contrats standards avec un rapport ponctuel, confiés à des consultants juniors ou à une équipe réduite. Cela justifie-t-il pour autant de transmettre à un client un rapport sans relecture par un expert confirmé ou expérimenté ?

Analysons ensemble le côté négligence absolue évoqué précédemment. C’est d’autant plus grave que le scandale lui-même. Une firme privée d’audit et de conseil, souvent sollicitée par les gouvernements pour des missions clés telles que l'audit des dépenses publiques, l'audit de la gestion de la pandémie de Covid-19, ou encore le conseil sur la transformation numérique ou la réforme de l’État, dont les missions touchent plusieurs cadres : économique, juridique, déontologique et moral. Au-delà de la simple erreur technique, cette situation évoque un problème d'ordre structurel. On a tendance à vouloir remplacer la réflexion et le jugement humains par la rapidité et l'efficacité des algorithmes. Dans le domaine de l'audit, par exemple, cette approche n'est pas seulement risquée, elle est antinomique avec l'essence même du métier, fondée sur la vérification, la traçabilité et le jugement professionnel. La véritable question n'est donc plus de savoir si l'intelligence artificielle peut aider et faire gagner du temps, mais quelles sont ses limites d'intervention sans justement compromettre l'éthique et la responsabilité de l'auditeur. Et c'est à ce niveau précis que l'enjeu majeur se situe: la préservation de la confiance.

IA et responsabilité : une frontière à ne pas franchir

On peut se demander: pourquoi un gouvernement choisit-il une firme privée plutôt qu’un organe public (comme l’ISC) ? Parfois par manque de ressources internes, parfois pour l’expertise technique sur un sujet précis, parfois pour la souplesse et la rapidité. Certes, on pourrait dire qu’avec l’IA on peut tout explorer… mais elle ne peut jamais remplacer le jugement professionnel humain. C’est d’ailleurs pour cette raison qu’il est facile de produire un “faux rapport”; on considère comme tel tout document contenant des données ou des citations fabriquées, non issues de vérifications réelles. On peut chercher d’autres qualifications pour ces dérives, mais le problème reste le même : la rigueur professionnelle est compromise.

Trois principes à retenir

Le but de ces quelques lignes n’est pas de critiquer l’IA ni ses mauvais utilisateurs, mais de mettre en garde contre certaines pratiques et utilisations. L’IA est puissante : elle analyse des données massives très rapidement et permet de gagner du temps et de l’efficacité. Mais sans supervision humaine, les risques sont multiples : hallucinations, biais dans les données, manque de transparence et absence de responsabilité. Rappelons que tout rapport d’audit ou mission similaire doit reposer sur trois grands principes : preuve, vérifiabilité et responsabilité. L’IA seule peut-elle garantir ces principes ? Pensez-y…

ISC : Institution Supérieure de Contrôle