NOUVELLES   TOP   TAGS   CE JOUR   ARCHIVE   EN   ES   RU   FR 
NOUVELLES / 2024 / 03 / 21 / ASTUCE TECHNIQUE : IDENTIFIER LES IMAGES DEEPFAKE GÉNÉRÉES PAR L'IA

Astuce technique : Identifier les images deepfake générées par l'IA

09:53 21.03.2024

La falsification de l'IA devient rapidement l'un des plus gros problèmes auxquels nous sommes confrontés en ligne. Les images, les vidéos et l'audio trompeurs prolifèrent en raison de la montée en puissance et de l'utilisation abusive des outils d'intelligence artificielle générative. Avec les deepfakes d'IA qui apparaissent presque tous les jours, représentant tout le monde, de Taylor Swift à Donald Trump, il devient de plus en plus difficile de distinguer ce qui est réel de ce qui ne l'est pas. Les générateurs de vidéos et d'images comme DALL-E, Midjourney et Sora d'OpenAI permettent aux personnes sans aucune compétence technique de créer facilement des deepfakes - il suffit de taper une demande et le système la crache. Ces fausses images peuvent sembler inoffensives. Mais ils peuvent être utilisés pour réaliser des escroqueries et du vol d'identité ou de la propagande et de la manipulation électorale.

Au début des deepfakes, la technologie était loin d'être parfaite et laissait souvent des signes révélateurs de manipulation. Les vérificateurs de faits ont signalé des images avec des erreurs évidentes, comme des mains avec six doigts ou des lunettes qui ont des lentilles de forme différente. Mais à mesure que l'IA s'est améliorée, elle est devenue beaucoup plus difficile. Certains conseils largement partagés - tels que la recherche de modèles de clignotement non naturels parmi les personnes dans les vidéos deepfake - ne tiennent plus, a déclaré Henry Ajder, fondateur de la société de conseil Latent Space Advisory et un expert de premier plan en IA générative. Pourtant, il y a certaines choses à rechercher, dit-il. Beaucoup de photos d'IA deepfake, en particulier de personnes, ont une brillance électronique, " une sorte d'effet lissant esthétique " qui laisse la peau " incroyablement polie ", a déclaré Ajder. Il a toutefois averti que l'incitation créative peut parfois éliminer cela et de nombreux autres signes de manipulation de l'IA. Vérifiez la cohérence des ombres et de l'éclairage. Souvent, le sujet est clairement ciblé et semble de manière convaincante réaliste, mais les éléments en toile de fond peuvent ne pas être aussi réalistes ou raffinés.

L'échange de visage est l'une des méthodes de deepfake les plus courantes. Les experts conseillent de regarder attentivement les bords du visage. Le teint du visage correspond-il au reste de la tête ou du corps ? Les bords du visage sont-ils nets ou flous ? Si vous soupçonnez qu'une vidéo d'une personne qui parle a été trafiquée, regardez sa bouche. Leurs mouvements des lèvres correspondent-ils parfaitement à l'audio ? Ajder suggère de regarder les dents. Sont-ils clairs, ou sont-ils flous et en quelque sorte pas cohérents avec leur apparence dans la vie réelle ? La société de cybersécurité Norton affirme que les algorithmes ne sont peut-être pas encore assez sophistiqués pour générer des dents individuelles, de sorte qu'un manque de contours pour les dents individuelles pourrait être un indice.

Parfois, le contexte compte. Prenez un temps pour déterminer si ce que vous voyez est plausible. Le site Web de journalisme Poynter indique que si vous voyez une personnalité publique faire quelque chose qui semble " exagéré, irréaliste ou sans caractère ", cela pourrait être un deepfake. Par exemple, le pape porterait-il vraiment une doudoune de luxe, comme le montre une fausse photo notoire ? S'il le faisait, n'y aurait-il pas d'autres photos ou vidéos publiées par des sources légitimes ?

Une autre approche consiste à utiliser l'IA pour lutter contre l'IA. Microsoft a développé un outil d'authentification qui peut analyser des photos ou des vidéos pour donner un score de confiance quant à savoir si elles ont été manipulées. FakeCatcher du fabricant de puces Intel utilise des algorithmes pour analyser les pixels d'une image afin de déterminer si elle est réelle ou fausse. Il existe des outils en ligne qui promettent de détecter les faux si vous téléchargez un fichier ou collez un lien vers le matériel suspect. Mais certains, comme l'authentificateur de Microsoft, ne sont disponibles que pour des partenaires sélectionnés et non pour le public. C'est parce que les chercheurs ne veulent pas alerter les mauvais acteurs et leur donner un plus grand avantage dans la course aux armements. Le libre accès aux outils de détection pourrait également donner aux gens l'impression qu'ils sont des " technologies divines qui peuvent externaliser la pensée critique pour nous " alors qu'au lieu de cela, nous devons être conscients de leurs limites, a déclaré Ajder.

Cela étant dit, l'intelligence artificielle a progressé à une vitesse vertigineuse et les modèles d'IA sont formés sur les données Internet pour produire un contenu de plus en plus de qualité avec moins de défauts. Cela signifie qu'il n'y a aucune garantie que ce conseil sera toujours valable même dans un an. Les experts disent qu'il pourrait même être dangereux de faire porter le fardeau aux gens ordinaires de devenir des Sherlocks numériques, car cela pourrait leur donner un faux sentiment de confiance car il devient de plus en plus difficile, même pour des yeux entraînés, de repérer les deepfakes.

/ Jeudi, 21 mars 2024 /

thèmes:  Internet  OpenAI  États-Unis  Microsoft  AI (Artificial intelligence)

VUES: 282


20/05/2024    info@iqtech.top
Tous les droits sur le matériel appartiennent à leurs auteurs.
RSS