|
Getting your Trinity Audio player ready...
|
Un monde où tout peut être faux
À mesure que les outils d’intelligences artificielles génératives se perfectionnent, il devient de plus en plus difficile de distinguer le vrai du faux. Photos truquées, voix clonées, vidéos générées par IA, musique générée par IA, etc., la frontière entre réalité et manipulation s’efface.
C’est dans ce contexte qu’est né le concept du “Liars’ Dividend”, littéralement, le dividende des menteurs. Popularisé en 2018 par les chercheurs américains Danielle Citron et Robert Chesney, ce terme désigne l’avantage que tirent les individus malhonnêtes du climat de doute que provoque la désinformation numérique.
Quand le mensonge devient une défense
Le principe est simple : dans un monde saturé de faux contenus, le menteur peut nier une vérité évidente en prétendant qu’elle est fabriquée. Résultat : le doute profite au menteur, qui s’en sort grâce à la confusion générale. C’est cela, le Liars’ Dividend.
Imaginons par exemple une vidéo authentique montrant un dirigeant politique tenant des propos racistes. Dans un environnement où les deepfakes circulent partout, ce dirigeant peut déclarer que la vidéo est un montage. Et le public, déjà méfiant face aux manipulations digitales, ne saura plus quoi penser.
Un cas s’est passé en Inde. Pendant les élections de 2024, une vidéo de Dinesh Lal Yadav est devenue virale, où on l’entendait parler du Premier ministre Narendra Modi et un ministre de l’État de l’Uttar Pradesh, Yogi Adityanath. L’opposition s’en est saisie et la vidéo a été largement diffusée ; poussant le président du parti Amit Malviya a tweeté en affirmant que la vidéo était un deepfake. Cependant, différentes analyses approfondies utilisant des techniques de détection de deepfake ont montré que la vidéo était réelle. Ils ont également retrouvé le fichier vidéo original auprès du journaliste qui l’avait enregistré. L’enquête a confirmé que la vidéo était authentique, bien que la séquence de ses commentaires dans le clip viral ait été légèrement modifiée par le montage, ce n’était pas un deepfake, et le sens de ses propos n’a pas été fondamentalement modifié.
Cet incident a été mis en avant par les médias et les vérificateurs de faits comme un exemple clé du « dividende du menteur », où les politiciens tentent d’utiliser la peur générale et la confusion autour de l’IA et des deepfakes pour écarter des preuves authentiques potentiellement dommageables ou embarrassantes comme étant fausses.
Un danger pour les relations sociales et la justice
Le phénomène ne concerne pas seulement la politique. Il touche aussi la justice, le journalisme, et même les relations sociales :
- Dans un tribunal, une vidéo ou un enregistrement audio ne suffit plus toujours à prouver la culpabilité d’un individu.
- Les journalistes voient leur travail fragilisé : la vérification des faits devient un défi permanent.
- Les citoyens, submergés d’informations contradictoires, risquent de perdre confiance dans toute forme de vérité.
En d’autres termes, le Liars’ Dividend mine les fondements mêmes de la confiance sociale.
Peut-on encore faire confiance à ce que l’on voit ?
Face à cette crise de crédibilité, plusieurs solutions émergent :
- Le développement de technologies de vérification de l’authenticité (comme les filigranes numériques ou les certificats d’origine des médias). Des fabricants comme SONY, Canon, Nikon, Panasonic, etc. intègrent des certificats d’origine dans certaines de leurs caméras, dans le but de vérifier l’authenticité des photos et des vidéos afin de contribuer à lutter contre les deepfake.
- L’éducation à la littératie numérique, pour apprendre à reconnaître les signes de manipulation.
- Et, plus largement, un appel à une responsabilité collective dans la création et le partage de contenus.
Mais le défi reste immense : à l’ère des IA génératives, chaque progrès technologique rend les faux plus crédibles… et les menteurs plus convaincants.
Le Liars’ Dividend illustre la face sombre de notre révolution digitale : un monde où la vérité devient relative et où le mensonge peut se justifier par la simple existence des deepfakes.
Comme le résument les chercheurs Citron et Chesney : « Dans un univers où tout peut être faux, même la vérité n’est plus une preuve. »
En savoir plus sur Digital Magazine Burkina
Subscribe to get the latest posts sent to your email.

