Logo

Intelligence artificielle et désinformation

9 gennaio 2025
Condividi

Outils utiles

Attention: L’intelligence artificielle est un domaine en constante évolution, c’est pourquoi ces outils sont considérés comme valides au mois de décembre 2024.

  • Recherche d’images inversée sur Google: Grâce à la recherche d’images inversée, il est possible de retracer le contexte dans lequel l’image (ou le frame d’une vidéo) a été publiée pour la première fois.
  • AI tools for media verification” (Septembre 2024). Cette vidéo présente quelques outils de fact-checking développés par le projet de recherche AI4MEDIA, et intégrés dans une version spéciale de la plateforme  Truly Media
  • AI4TRUST (en devenir). Un projet encore en développement qui vise à créer une plateforme grâce à laquelle il sera possible de surveiller en temps réel différents médias sociaux et les sources d’information.

NOTRE GUIDE

Tout le monde en a entendu parler, mais l’intelligence artificielle (IA) comment est-ce qu’elle fonctionne réellement?

Il s’agit d’une technologie qui apprend aux ordinateurs à simuler la compréhension et la résolution des problèmes, aussi bien que le processus de prise de décision et la créativité. Ces dernières années, la recherche dans ce domaine s’est concentrée sur ce qui a été nommé “intelligence artificielle générative”, c’est-à-dire une “structure” informatique – mieux connue sous le nom de modèle – qui est capable de comprendre la phrase d’un utilisateur (également appelée input ou prompt) et de créer une réponse (output). Cette “réponse” est générée sur la base d’un processus d’apprentissage auquel le modèle est soumis.

Le processus d’apprentissage repose sur une énorme quantité de données (pour ChatGPT 3.5 on parle de 570 GB de données) avec lesquelles le modèle est “entraîné”. En utilisant une métaphore, c’est comme si ce modèle était exposé à une énorme bibliothèque de textes déjà écrits, et qu’après cette “étude” le modèle devenait “intelligent”. Cette “formation en bibliothèque” permet au modèle d’apprendre une série de règles du langage humain (telles que les règles grammaticales) mais aussi des éléments factuels (comme par exemple, Rome est la capitale d’Italie). Sur cette base, le modèle pourra alors élaborer des réponses.

L’une des conséquences de la manière selon laquelle l’IA est développée, c’est qu’elle perpétue les stéréotypes – de genre ou raciaux – qui sont présents dans les données d’où elle apprend. Si, dans le 80 pour cent des cas, l’on présente au modèle des photos de personnes blanches et, pour le restant 20 pour cent des cas, des photos de personnes noires, la “réalité” que le modèle aura “à l’esprit” sera constituée pour le 80 pour cent de personnes blanches et pour le 20 pour cent de personnes noires. Ce qui, évidemment, est faux et ne reproduit pas la réalité en dehors des modèles.

Le phénomène ChatGPT

Lorsqu’il est devenu viral fin 2022, le “phénomène ChatGPT” a mené un grand nombre d’utilisateurs, parmi lesquels beaucoup de non-experts, à interagir directement avec l’IA d’une manière toute à fait semblable à une tchat en ligne entre deux êtres humains.

Dans le domaine de l‘information, l’énorme intérêt pour le nouvel instrument a poussé quelques équipes de rédaction (un petit peu partout dans le monde)  à expérimenter la production de textes en utilisant l’IA. Néanmoins, et en même temps, la désinformation  aussi a augmentée.

D’ailleurs, c’est au mois de mars 2023 que l’image de Pape Francesco en doudoune blanche imposante (image désormais iconique) circule dans le web aussi bien que celle de Donald Trump arrêté et conduit en prison – toutes les deux fausses et créées avec un programme de IA générative appelé Midjourney. Bien que dans les deux cas les auteurs n’avaient aucune intention malveillante, les messages postés sont devenus virales et considérés comme vrais.

La désinformation et les stéréotypes de l’IA

Quoique certaines types d’images et de vidéos créées avec l’intelligence artificielle étaient diffusées comme désinformation même avant le  “phénomène ChatGPT”, les nouveaux instruments ont rendu cette dynamique encore plus intense. Et grâce à l’évolution de l’intelligence artificielle ces créations sont devenues toujours plus réelles.

Il s’agit notamment de deepfake, c’est-à-dire une technique de synthèse de l’image humaine basée sur l’intelligence artificielle qui remonte désormais au 2017. Ces dernières années, cette technique a donné lieu à une tendance prolifique de désinformation, qui exploite l’image de personnalités publiques pour véhiculer des messages faux et dangereux.

En octobre 2024, par exemple, dans une vidéo qui a été diffusée, l’on voyait Bill Gates qui aurait dit de vouloir réduire la population mondiale afin d’arrêter le changement climatique: il s’agissait d’un contenu créé numériquement, qui diffusait de fausses nouvelles. Encore, pendant la campagne électorale des Etats Unis en 2024, de fausses images ont été diffusées pour donner l’impression que le candidat républicain Donald Trump était un personnage très apprécié par la communauté afro-américaine

Ces derniers mois, certains programmes ont été développés pour vérifier si un contenu a été créé avec l’intelligence artificielle ou non. Néanmoins, ces outils ne sont pas encore entièrement fiables. Voilà que les cas de désinformation résultant de certaines évaluations erronées de ces logiciels, et acceptées sans réserve, ne sont pas du tout rares. Des cas de “désinformation de second niveau” peuvent alors surgir et la théorie du complot qui vise à démontrer la non-existence de Filippo Turetta, le garçon qui a avoué l’assassinat de Giulia Cecchettin, est un cas assez explicatif de cette dynamique.

Des outils pour reconnaitre un contenu artificiel

Donc, comment est-ce qu’on peut reconnaître les contenus créés en utilisant l’intelligence artificielle?

Tout d’abord, il faut essayer de reconstituer le contexte de l’image. Par conséquent, il faut rechercher l’histoire qui se cache derrière l’image elle-même. Par exemple, dans le cas d’une fausse photo de Rihanna au Met Gala, il a été possible de déterminer sa fausseté car la chanteuse n’était pas présente à l’évènement à New York.

De plus, la première personne qui a partagé le contenu en question est souvent consciente qu’il s’agit d’intelligence artificielle. En fait, il n’est pas rare que des images de ce type soient publiées sur des médias sociaux visant précisément à partager des contenus créés avec l’IA. Dans d’autres cas, lors de sa première diffusion, c’est l’auteur même de l’image qui en déclare le caractère artificiel. Cela a été le cas, par exemple,  d’une photo de Pape Francesco enveloppé dans un drapeau LGBTQ+. Le texte qui accompagnait les images lors de leurs première diffusion comprenait, entre autres, le hastag #MidJourney (l’instrument basé sur l’IA et qui a été utilisé pour les créer).

Une autre technique consiste à identifier des logos ou des filigranes qui sont parfois mises sur les images et permettent d’en comprendre l’origine. Enfin, une autre sonnette d’alarme est l’attention portée aux détails. En fait, notamment dans les représentations d’êtres humains, l’intelligence artificielle générative est souvent incapable de représenter correctement des détails tels que les doigts, les cheveux et les pores de la peau. Non seulement: le contexte est souvent incohérent et peu crédible. Nous de Facta, nous avons rencontré plus d’une fois des cas comme celui-ci, où les gens avaient la peau trop brillante et une main avec seulement quatre doigts.

Néanmoins, il faut souligner que ces techniques sont valables aujourd’hui, mais elles pourraient ne plus l’être dans une année – ou moins – car cette technologie est continuellement en évolution et pourrait devenir encore plus réaliste et difficile à détecter.

Quelles opportunités avec les modèles d’intelligence artificielle

L’intelligence artificielle peut aussi être utilisée pour contrer la désinformation. Il y a des projets de recherche où l’on travaille sur la détection des contenus deepfake, tels que Vera.ai, AI4media et AI4TRUST. Ce dernier, en particulier, cherche à construire une plateforme qui surveille différents médias sociaux et d’autres sources d’information en temps presque réel. Le but est celui de sélectionner les contenus qui présentent un risque élevé de désinformation et les signaler aux traqueurs de fake news professionnels pour qu’ils les vérifient.

La lutte contre la désinformation pourrait aussi se dérouler à un autre niveau. Selon une étude publiée dans Science en septembre 2024, un chatbot d’intelligence artificielle a réussi à changer les croyances complotistes de milliers de personnes. Le succès de cette étude réside dans le fait que le chatbot a adopté la même stratégie que celle utilisée par les théoriciens du complot, en exploitant les émotions des participants et en personnalisant le dialogue en fonction de leurs arguments, pour ensuite les réfuter avec des données scientifiques précises et pertinentes. Un projet analogue est celui réalisé par le groupe de recherche TITAN, qui vise à lutter contre la désinformation en créant une application intelligente capable d’accompagner les utilisateurs dans la recherche de la vérité sur un fait qui est censé être vrai, le tout passant par la méthodologie du dialogue socratique.

Quoi qu’il en soit, l’intelligence artificielle ne représente certainement pas à ce jour « la solution » à la désinformation en ligne. Selon les chercheurs des projets que nous avons évoqués dans le rapport « IA générative et désinformation », il est nécessaire – entre autres – que la recherche progresse encore et que les médias sociaux collaborent avec les chercheurs en leur fournissant les données nécessaires pour étudier la dynamique de la désinformation et comprendre sa propagation.

Altri articoli
Segnala su Whatsapp