Deepfake : l’intelligence artificielle va-t-elle trop loin ?

Les sosies numériques (deepfake) ultra-réalistes créés par l'IA posent des questions cruciales concernant la sécurité de l'identité et la protection de la vie privée.

Aujourd’hui, l’Intelligence Artificielle, que l’on surnomme IA, est partout et nous l’utilisons au quotidien. Certains l’utilisent à bon escient et à titre créatif, ou pour amuser leurs amis. Mais, d’autres l’utilisent de manière détournée, dans le but de nuire à certaines personnes. L’IA va-t-elle trop loin ? Pourrait-elle nuire à certaines personnes, voire mettre en danger une démocratie ? Le problème de l’utilisation, ce sont les « deepfakes » qui diffusent de fausses images, en réalité des montages, qui font faire ou dire des choses qui nuisent à leur image. Comme l’explique le site ExpressVPN dans son article dédié au sujet, certains deepfakes, comme celui de Donald Trump, affublé d’un chapeau de Noël, lisant un conte enfantin. Mais, qu’est-ce qu’un deepfake, et comment peut-il nuire à une personne, à une entreprise, ou à un pays entier ? Je vais tout vous expliquer.

Un deepfake qu’est-ce que c’est exactement ?

Une deepfake est une image ou une vidéo qui a été modifiée grâce à l’intelligence artificielle et qui met, généralement en scène, une personnalité très connue. Dans cette vidéo modifiée, la personne en question, fait, ou dit, quelque chose dont elle n’est pas l’auteure. Pour fabriquer un deepfake, il suffit de rassembler plusieurs photos et vidéos, pour que l’IA apprenne la « morphologie » de la cible. Elle apprend aussi la manière de parler et de bouger. Les données récoltées sont ensuite destinées à entraîner un modèle d’IA qui va imiter la voix, le visage et les mouvements. Une fois l’entraînement terminé, l’intelligence artificielle remplace une vidéo créée par l’imposteur, et la remplace par le visage de la cible. Des ajustements sont ensuite nécessaires, néanmoins le résultat est souvent bluffant. Diffusés massivement sur les réseaux sociaux, les deepfakes peuvent finalement altérer la réalité, au point que le public pense qu’il s’agit d’une vérité, on appelle cela « l’effet Mandela ».

Il devient difficile de faire la distinction entre une une vraie vidéo et un deepfake.
Il devient difficile de faire la distinction entre une une vraie vidéo et un deepfake. Photo d’illustration non contractuelle. Crédit : Shutterstock

Qu’est-ce que l’effet Mandela ?

Cette expression fait référence à Nelson Mandela, emblématique défenseur de la paix en Afrique du Sud, qui a lutté toute sa vie contre l’apartheid (ségrégation entre les Blancs et les Noirs). Condamné à 27 ans de prison pour contester la politique ségrégationniste de l’Afrique du Sud, il entre en prison en 1962. Dans les années 1980, une rumeur le dit décédé, elle fera le tour du monde, même si de nombreuses preuves avaient été fournies. En 1990, il est libéré et devient président de la République d’Afrique du Sud en 1994. En matière d’IA, l’effet Mandela est un phénomène sur lequel un grand nombre de personnes se souviennent d’un événement ou d’un fait de manière incorrecte ou différente de la réalité. Et, si une IA est entraînée avec des erreurs, elle produit des deepfakes que les victimes peuvent difficilement démentir. Par exemple, une vidéo deepfake d’un discours politique peut amener les personnes à se souvenir d’un discours qui n’a jamais eu lieu. Le danger pour la démocratie serait donc bien réel si un deepfake politique provoquait un effet Mandela dans le monde entier.

Quels pourraient être les dangers de l’IA lorsqu’elle va trop loin ?

Oui, les deepfakes peuvent, selon moi, menacer la démocratie et notre sécurité numérique. Prenons quelques exemples simples. Lorsqu’un deepfake est utilisé pour diffuser de fausses informations qui seraient prononcées par des personnalités publiques, cela peut influencer les électeurs et l’opinion publique. Un deepfake de Barack Obama, parlant de Donald Trump. Cette vidéo, dans laquelle Trump était accusé de tous les maux, avait semé la discorde chez les partisans républicains. Les deepfakes peuvent aussi être utilisés à des fins de propagande dans le cas de conflits armés. Personne n’est aujourd’hui capable de dire si les vidéos provenant des autorités russes, sont réelles ou fabriquées par l’IA ! Les dangers sont nombreux, comme de faire chanter une célébrité, riche de préférence, pour lui soutirer de l’argent. Le créateur du deepfake menace de publier une vidéo compromettante pour s’enrichir sur la peur qu’il provoque sur sa cible ! L’IA est une technologie géniale si elle reste utilisée à des fins créatives, ludiques ou artistiques. Mais, la détourner pourrait devenir très problématique et elle ne doit pas être exploitée par des personnes malveillantes. Je vous invite à partager votre avis, vos remarques ou nous signaler une erreur dans le texte, cliquez ici pour publier un commentaire .

 

Rejoignez nos 900 000 abonnés via notre Newsletter , Google Actualité et WhatsApp

Alexandre Bonazzi

J'ai fait des études en droit et j'ai travaillé pendant 30 ans dans une société d'études et de conseil en marketing. Aujourd'hui, j'encadre la ligne éditoriale de NeozOne. Geek et Nerd depuis ma naissance, je suis passionné par les nouvelles technologies, la High-tech et la pop culture en général. J'ai fondé le site NeozOne en 1999 et depuis je partage avec vous mes astuces, mes tests et quelques fois mes humeurs, je modère également les commentaires de NeozOne. Je suis par ailleurs amateur de cinéma, série TV, les jeux de plateaux et les jeux de rôles. N'hésitez pas à me contacter directement par courrier électronique pour toute question

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *


Bouton retour en haut de la page