À LA UNE

NAVIGATION

SUIVEZ-NOUS SUR Suivez-nous

DÉTENTE

18 juin 2025

I-A : Deepfakes, désinformation et IA : la vérité est-elle encore possible ? Par N. Lemaire

N. Lemaire  18/6/2025

 

L’essor fulgurant de l’intelligence artificielle générative a ouvert la voie à des créations audio, vidéo et textuelles d’un réalisme troublant.

Parmi les technologies les plus inquiétantes figurent les deepfakes : des vidéos manipulées, souvent à l’insu de la personne représentée, qui simulent parfaitement les expressions, la voix et les gestes humains. Longtemps limitées à des usages marginaux ou humoristiques, ces créations sont aujourd’hui capables de tromper des experts, des journalistes et le grand public. Leur démocratisation, via des outils accessibles sans compétences techniques, soulève une question vertigineuse : dans un monde saturé d’images, que vaut encore la vérité ?

Les deepfakes sont devenus un outil central dans les stratégies de désinformation. Lors des élections, dans les conflits armés ou dans les campagnes de déstabilisation géopolitique, ils permettent de produire en quelques minutes des discours fabriqués, des scènes de guerre imaginaires ou des confessions truquées. En février 2023, une vidéo prétendant montrer le président ukrainien Volodymyr Zelensky appelant ses troupes à déposer les armes avait brièvement semé la confusion avant d’être démentie. Ces manipulations, quand elles circulent à grande vitesse sur les réseaux sociaux, peuvent influer sur l’opinion publique avant même que les démentis n’atteignent leur audience.

Face à cette menace, les garde-fous technologiques et juridiques peinent à suivre le rythme. Des initiatives telles que le Content Authenticity Initiative (portée par Adobe, Twitter et d'autres) visent à créer des systèmes de certification de l’origine des contenus numériques. Parallèlement, des algorithmes détecteurs de deepfakes sont en cours de développement, mais ils sont souvent dépassés par la rapidité d’évolution des outils génératifs. D’un point de vue légal, certains pays ont commencé à légiférer, interdisant ou criminalisant l’usage malveillant des deepfakes, en particulier à des fins de harcèlement, de fraude ou de manipulation politique.

Cependant, la véritable bataille se joue peut-être ailleurs : dans l’éducation du public et la reconstruction d’une culture du doute critique. À mesure que la frontière entre vrai et faux devient floue, l’enjeu n’est plus seulement de traquer les contenus falsifiés, mais d’armer les citoyens pour qu’ils interrogent la source, le contexte et l’intention d’un message. Ce changement de paradigme suppose une refonte des pratiques journalistiques, des politiques éducatives et de la responsabilité des plateformes.

La montée des deepfakes interroge aussi notre rapport collectif à la réalité. Sommes-nous prêts à vivre dans un monde où voir n’est plus croire ? L’inflation de contenus trompeurs risque de produire une fatigue de la vérité, où chacun choisit la "réalité" qui conforte ses croyances. C’est le paradoxe de l’ère numérique : alors que l’information est plus accessible que jamais, la confiance dans cette information n’a jamais été aussi érodée.

En définitive, la technologie n’est ni bonne ni mauvaise en soi : elle reflète les usages que les sociétés en font. Les deepfakes peuvent servir à des fins artistiques, pédagogiques ou de sensibilisation, mais leur potentiel de nuisance appelle une vigilance collective. La vérité n’a pas disparu, mais elle exige aujourd’hui un effort conscient, une méthodologie et des outils nouveaux pour émerger du chaos informationnel.

 


Kaleidoscope

SUIVEZ-NOUS SUR ▼▼

Bluesky Facebook Mastodon

VISITEURS