Si croire ce que l’on voit suffisait, l’armée ukrainienne aurait déposé les armes en mars 2022. Une vidéo circulant alors montrait le président Volodymyr Zelenskyy ordonnant la reddition de ses troupes. Elle était entièrement fabriquée par des propagandistes russes grâce à l’IA et comptait parmi les premières deepfakes à semer un doute bien réel.
Aussitôt, on a parlé de « l’ère de la désinformation ». Un terme commode, mais trompeur. Je m’explique. Pendant des siècles, mentir exigeait du talent, du souffle, parfois même une imprimerie. Aujourd’hui, quelques instructions bien formulées suffisent. La désinformation n’a pas disparu : elle s’est professionnalisée.
Notre solution? Prendre l’habitude d’accuser l’intelligence artificielle de tous nos problèmes, alors que l’on retire le chapeau des cellulaires. Pourtant, l’IA n’a rien inventé, elle a simplement rendu le mensonge crédible. Avec un minimum de recul, certaines faussetés seraient pourtant aussi plausibles que ces vidéos virales de lapins sautant joyeusement sur des trampolines. Amusant, absurde, inoffensif. Du moins en apparence.
Le problème commence lorsque ces illusions cessent de divertir. La désinfor-mation produite par l’IA n’est plus seulement ridicule ou maladroite : elle crée des victimes.
Selon le Service canadien du renseigne-ment de sécurité, près de 90% des contre-façons numériques prennent la forme d’images ou de vidéos pornographiques non-consentantes, visant presque exclusive-ment des femmes. Fictives certes, mais avec des conséquences bien réelles.
Et comme souvent, la loi arrive en retard à la fête. Les cadres juridiques peinent à suivre une technologie qui avance à bride abattue. Résultat : peu de responsables, encore moins de protection pour les victimes, laissées à attendre que le système les rattrape.
Ailleurs, des voix clonées imitent des directeurs de banque pour détourner des millions. Des figures politiques, dont le président taïwanais Lai Chin-te, se retrouvent au centre de vidéos humiliantes qu’elles n’ont jamais tournées. Aux États-Unis, des appels automatisés utilisant la voix de Joe Biden ont même encouragé des citoyens du New Hampshire à ne pas voter en 2024. En période de crise ou d’élections, le doute devient parfois plus efficace encore que le mensonge brut.
Mais visiblement, le présent ne suffisait plus. Cette année, même des faits historiques pourtant incontestables, l’Holocauste, par exemple, ont été banalisés ou discrédités par des images générées par l’IA, brouillant ainsi la frontière entre reconstitution, exagération et négation.
Ainsi, le danger n’est pas que l’IA fabrique des réalités alternatives, mais qu’elles s‘insèrent sans résistance dans notre quotidien. Ce n’est pas la machine qui décide d’y croire. C’est nous.
Après tout, l’IA peut bien créer des vidéos de catastrophes imaginaires, falsifier des élections et ruiner des réputations… Mais détendez-vous, elle n’a pas encore réussi à vous faire croire qu’elle est humaine.
Patience.