Quand le progrès technique rime avec “bidonnage” massif : retour sur un joli tour de passe-passe signé IA, où un rapport ultra-tarifé s’amuse à inventer des recherches – au nez et à la barbe du gouvernement australien.
Un rapport à 250 000 €, commandé en toute confiance
Imaginez : le gouvernement australien souhaite prendre des décisions sérieuses concernant l’automatisation des pénalités dans son système d’aide sociale. Il fait alors appel au très réputé cabinet Deloitte pour produire un rapport digne de l’importance du sujet. On parle tout de même d’un chantier confié directement par le Department of Employment and Workplace Relations (DEWR) – en clair, le ministère du Travail. Pour une telle mission, la facture est naturellement conséquente : 440 000 dollars australiens, soit environ 251 000 €. On s’attend donc à une expertise irréprochable, et non à un festival de citations fantaisistes…
La révélation : des hallucinations IA et des citations fantômes
Mais voilà qu’après la publication tant attendue du rapport, rien ne se passe vraiment comme prévu. C’est un directeur du département de droit de la santé à l’université de Sydney qui, en pleine lecture consciencieuse du document, débusque ce que l’on qualifiera d’« étrangetés troublantes ». En scrutant le texte, il tombe sur des références à des publications scientifiques… totalement inexistantes ! Comme si cela ne suffisait pas, certaines de ces “sources” attribuent à une professeur (une vraie, elle) des travaux qui n’ont jamais vu le jour. Du point de vue de l’Australian Financial Review, la ficelle est un peu grosse : inventer purement et simplement des publications pour donner du crédit à un rapport stratégique, c’est très – disons… créatif. Trop !
Quand ChatGPT (ou un cousin) s’invite dans l’affaire
Pour remettre l’église au centre du village : Deloitte ne s’est pas foulé. Le cabinet aurait confié l’intégralité du rapport à ChatGPT, ou une IA concurrente, mais sans la moindre vérification derrière. Autant dire que payer un quart de million d’euros pour du texte généré par IA – certes volumineux (273 pages pour la version finale) – et truffé d’erreurs, ça laisse perplexe. D’autant qu’une chaîne d’outils basée sur un modèle de langage génératif (précisément Azure OpenAI GPT-4o) est mentionnée dans les corrections apportées par Deloitte et le ministère. On imagine le comité de lecture écarquiller des yeux ronds devant ce florilège d’hallucinations numériques.
- Des citations inventées ;
- Des références à des recherches fictives ;
- Le tout aboutissant à un rapport qui, sur le papier, aurait dû répondre à de graves questionnements sociaux.
Bidouillages, remboursement partiel… et recommandations maintenues !
Face au tollé, Deloitte a su faire preuve d’un certain flegme. Après la tempête médiatique, une version “corrigée” du rapport a été publiée, retirant les références trompeuses et éliminant toutes les citations issues de l’imagination débordante de l’IA. Deloitte signale maintenant qu’il remboursera la “version finale” du contrat, sans entrer dans les détails quant à la somme ou à la proportion. L’histoire ne dit pas s’il reste assez pour se consoler d’avoir acheté tant de rêves numériques.
Mais voilà le sel de l’affaire : malgré ces bidouilles dignes d’un magicien d’opéra, le ministère du Travail australien ne sourcille pas. Selon ses dires, « le contenu de l’audit indépendant est préservé » : autrement dit, tout va bien, les recommandations restent valables. Même si, au fond, elles sont bâties sur des hallucinations sorties du néant par une IA. Sur ce, circulez, il n’y a (presque) plus rien à voir.
Encore une preuve que tout ce qui brille n’est pas forcément scientifique, même à prix d’or… Moralité : toujours lire attentivement, surtout si le rapport coûte aussi cher qu’une maison de campagne !
