Les « deepfakes » créés par l’intelligence artificielle (IA) qui imitent les politiciens et les célébrités sont beaucoup plus répandus que les cyberattaques assistées par l’IA, d’après une étude révolutionnaire réalisée par la division DeepMind de Google. C’est la première fois que DeepMind tente de quantifier les utilisations néfastes les plus courantes de la technologie de pointe qu’est l’IA.
L’étude a révélé que la création d’images, de vidéos et de sons réalistes mais faux de personnalités publiques est presque deux fois plus fréquente que l’utilisation abusive suivante de l’IA générative : la création de fausses informations à l’aide de ressources textuelles telles que les chatbots pour diffuser des informations erronées sur le web. L’objectif premier de ceux qui utilisent abusivement les outils d’IA générative est d’influencer l’opinion publique, une tendance qui représente 27 % des cas examinés. Cette localisation amplifie les inquiétudes quant à l’impact que pourraient avoir les deepfakes sur les élections dans le monde entier.
Ces derniers mois, des deepfakes du Premier ministre britannique Rishi Sunak et d’autres dirigeants mondiaux ont été diffusés sur des systèmes tels que TikTok, X (anciennement Twitter) et Instagram. Ces incidents ont suscité des inquiétudes quant à l’influence qu’ils pourraient avoir sur les électeurs, en particulier à l’approche des élections générales au Royaume-Uni. Malgré les efforts déployés par les systèmes de médias sociaux pour étiqueter ou supprimer ces articles, on craint que le public ne reconnaisse pas ces « deepfakes » comme étant faux, ce qui pourrait influencer l’opinion des électeurs.
Ardi Janjeva, chercheur associé à l’Alan Turing Institute, a souligné que l’étude avait permis de découvrir que les contenus générés par l’IA qui contaminent les informations accessibles au public pourraient « fausser notre compréhension collective de la réalité sociopolitique ». M. Janjeva a fait remarquer que même si l’impact rapide des « deepfakes » sur le déroulement du vote n’est pas certain, les risques à long terme pour la démocratie sont considérables.
Cette recherche de DeepMind, dirigée par Sir Demis Hassabis, fait partie d’un travail d’évaluation des risques associés aux ressources génératives de l’IA, qui ont été rapidement développées et diffusées par les grandes entreprises technologiques à la recherche de revenus. À mesure que des équipements tels que ChatGPT d’OpenAI et Gemini de Google se répandent, les organisations d’IA surveillent de plus en plus la diffusion de fausses informations et d’autres contenus nuisibles ou contraires à l’éthique créés par leurs technologies.
En mai, OpenAI a publié une étude indiquant que des entités liées à la Russie, à la Chine, à l’Iran et à Israël ont utilisé ses outils pour générer et diffuser de la désinformation. Nahema Marchal, auteur principal de l’étude de DeepMind, a déclaré : « Il y a eu beaucoup de questions compréhensibles concernant des cyberattaques très sophistiquées facilitées par ces outils. Ce que nous avons vu, en revanche, ce sont des utilisations abusives assez courantes de la GenAI [telles que les « deepfakes »] qui pourraient passer un peu plus inaperçues ».
Les scientifiques des moteurs de recherche DeepMind et Jigsaw ont évalué environ 200 incidents d’utilisation abusive de l’IA entre janvier 2023 et mars 2024. Ces incidents provenaient des plateformes de marketing des médias sociaux X et Reddit, ainsi que de blogs en ligne et de revues de presse. L’évaluation a montré que la plupart des cas d’utilisation abusive impliquaient des outils facilement disponibles, nécessitant une expertise technologique minimale, permettant ainsi à un plus large éventail de mauvais acteurs célèbres d’exploiter l’IA générative.
Le deuxième motif le plus fréquent d’utilisation abusive de l’IA est le gain financier. Il s’agissait notamment de fournir des services pour créer des « deepfakes », de générer des représentations nues de personnes réelles ou d’utiliser l’IA pour produire de grands volumes de contenu, y compris de faux articles de presse.
Les conclusions de l’enquête de DeepMind influenceront la manière dont l’entreprise améliore ses évaluations des versions de l’IA pour en assurer la sécurité de base. On espère que cette enquête conditionnera également la manière dont la concurrence et les autres parties prenantes perçoivent et abordent les inconvénients liés à l’IA générative.
La technologie de l’IA évoluant constamment, meilleure agence seo il est essentiel de comprendre et d’atténuer ses utilisations malveillantes. L’étude de DeepMind met en lumière le paysage actuel de l’utilisation abusive de l’IA, en soulignant la nécessité de prendre des mesures énergiques pour protéger l’opinion publique et les processus démocratiques des effets probablement considérables des deepfakes et de la désinformation générés par l’IA.