Les élections partout à travers le monde sont confrontées à une menace croissante émanant d’acteurs étrangers, impliquant l’intelligence artificielle.
Les états qui tentent de s’influencer mutuellement lors des élections sont entrés dans une nouvelle ère en 2016, quand les Russes ont lancé une série de campagnes de désinformation sur les réseaux sociaux ciblant l’élection présidentielle américaine. Au cours des sept années suivantes, un certain nombre de pays – notamment la Chine et l’Iran – ont utilisé les médias sociaux pour influencer les élections étrangères, aux États-Unis et ailleurs à travers le monde. Il n’y a aucune raison de s’attendre à ce que 2023 et 2024 soient différents.
Mais il y a un nouvel élément : l’IA générative et les grands modèles de langage. Ceux-ci ont la capacité de produire rapidement et facilement des quantités infinies de textes sur n’importe quel sujet, dans n’importe quel ton et sous n’importe quelle perspective. En tant qu’expert en sécurité, je pense qu’il s’agit d’un outil particulièrement adapté à la propagande de l’ère Internet.
Tout cela est très nouveau. ChatGPT a été intégré en novembre 2022. Le GPT-4, plus puissant, a été lancé en mars 2023. Les autres IA de production de langage et d’images ont à peu près le même âge. On ne comprend pas précisément comment ces technologies changeront la désinformation, quelle sera leur performance ou quels effets elles auront. Mais nous sommes sur le point de le découvrir.
Une conjonction d’élections
La saison électorale battra bientôt son plein dans une partie importante du monde démocratique. Soixante et onze pour cent des personnes vivant dans les démocraties voteront lors d’élections nationales d’ici la fin de l’année prochaine. Parmi eux : l’Argentine et la Pologne en octobre, Taïwan en janvier, l’Indonésie en février, l’Inde en avril, l’Union européenne et le Mexique en juin et les États-Unis en novembre. Neuf démocraties africaines, dont l’Afrique du Sud, organiseront des élections en 2024. L’Australie et le Royaume-Uni n’ont pas de date fixe, mais des élections auront certainement lieu en 2024.
Beaucoup de ces élections comptent beaucoup pour les états qui ont mené des opérations d’influence sur les réseaux sociaux dans le passé. La Chine se soucie beaucoup de Taiwan, de l’Indonésie, de l’Inde et de nombreux pays africains. La Russie se soucie du Royaume-Uni, de la Pologne, de l’Allemagne et de l’UE en général. Tout le monde se soucie des États-Unis.
Les générateurs d’images, de textes et de vidéos établis sur l’IA commencent déjà à injecter de la désinformation dans les élections.
Et cela ne prend en compte que les plus grands acteurs. Chaque élection nationale américaine depuis 2016 a amené un pays supplémentaire à tenter d’influencer le résultat. Au début, il y avait juste la Russie, puis la Russie et la Chine, et plus récemment ces deux-là, plus l’Iran. À mesure que le coût financier de l’influence étrangère diminue, davantage de pays peuvent participer à l’action. Des moyens comme ChatGPT réduisent considérablement le prix de production et de distribution de la propagande, plaçant ainsi cette capacité dans le budget de beaucoup plus de pays.
Ingérence électorale
Il y a quelques mois, j’ai assisté à une conférence avec des représentants de toutes les agences de cybersécurité des États-Unis. Ils ont parlé de leurs attentes en matière d’ingérence électorale en 2024. Ils attendaient les acteurs habituels – la Russie, la Chine et l’Iran – et un nouveau important : «acteurs nationaux». C’est une conséquence directe de cette réduction des coûts.
Evidemment, mener une campagne de désinformation ne se limite pas à générer du contenu. Le plus dur, c’est la distribution. Un propagandiste a besoin d’une série de faux comptes sur lesquels publier, et d’autres pour diffuser son message dans le grand public où il peut devenir viral. Des sociétés comme Meta sont devenues bien meilleures pour identifier ces comptes et les supprimer. Le mois dernier, Meta a annoncé avoir supprimé 7 704 comptes Facebook, 954 pages Facebook, 15 groupes Facebook et 15 comptes Instagram associés à une campagne d’influence chinoise, et identifié des centaines d’autres comptes sur TikTok, X (anciennement Twitter), LiveJournal et Blogspot. Mais il s’agit d’une campagne qui a débuté il y a quatre ans et qui a produit une désinformation pré-IA.
La Russie participe depuis longtemps à des campagnes de désinformation à l’étranger.
La désinformation est une course aux armements. Les attaquants et les défenseurs se sont améliorés, mais le monde des médias sociaux est aussi différent. Il y a quatre ans, Twitter était une ligne directe avec les médias, et la propagande sur cette plateforme était un moyen de faire pencher la balance du discours politique. Une étude de la Columbia Journalism Review a révélé que les nombreux grands médias utilisaient les tweets russes comme sources d’opinions partisanes. Ce Twitter, que pratiquement tous les éditeurs de nouvelles le lisent et tous ceux qui y postaient, n’existe plus.
De nombreux médias de propagande ont quitté Facebook pour se tourner vers des plateformes de messagerie telles que Telegram et WhatsApp, ce qui les rend plus difficiles à identifier et à supprimer. TikTok est une plate-forme plus récente contrôlée par la Chine et plus adaptée aux vidéos courtes et provocantes – celles que l’IA facilite grandement la production. Et la génération actuelle d’IA génératives est connectée à des outils qui faciliteront aussi la distribution de contenu.
Les outils d’IA générative permettent aussi de nouvelles techniques de production et de distribution, telles que la propagande de bas niveau de grande ampleur. Imaginez un nouveau compte personnel alimenté par l’IA sur les réseaux sociaux. Pour la plupart, il se comporte normalement. Il publie des articles sur sa fausse vie quotidienne, rejoint des groupes d’intérêt et commente les publications des autres, et se comporte généralement comme un utilisateur normal. Et de temps en temps, pas très souvent, cela dit – ou amplifie – quelque chose de politique. Ces robots persona, comme les appelle l’informaticien Latanya Sweeney, ont à eux seuls une influence négligeable. Mais reproduits par milliers ou millions, ils en auraient bien plus.
Désinformation sur les stéroïdes de l’IA
Ce n’est qu’un scénario. Les officiers militaires en Russie, en Chine et ailleurs chargés de l’ingérence électorale auront certainement leurs meilleurs éléments qui pensent aux autres. Et leurs tactiques seront certainement beaucoup plus sophistiquées qu’elles ne l’étaient en 2016.
Des pays comme la Russie et la Chine ont l’habitude de tester à la fois les cyberattaques et les opérations d’information sur des pays plus petits avant de les déployer de grande ampleur. Quand cela se produit, il est important de pouvoir identifier ces tactiques. Pour contrer les nouvelles campagnes de désinformation, il faut être capable de les reconnaître, et les reconnaître nécessite de les rechercher et de les cataloguer dès désormais.
Même avant l’essor de l’IA générative, les campagnes de désinformation russes faisaient un usage sophistiqué des médias sociaux.
À travers le monde de la sécurité informatique, les chercheurs reconnaissent que le partage des techniques d’attaque et de leur performance est la seule façon de fonder des systèmes défensifs solides. Le même type de réflexion s’applique aussi à ces campagnes d’information : plus les chercheurs étudient les techniques utilisées dans des pays lointains, mieux ils peuvent défendre leur propre pays.
Les campagnes de désinformation à l’ère de l’IA seront certainement beaucoup plus sophistiquées qu’elles ne l’étaient en 2016. Je pense que les États-Unis doivent déployer des efforts pour identifier et identifier la propagande conçu par l’IA à Taiwan, où un candidat à la présidentielle affirme qu’un enregistrement audio truqué a été utilisé. l’a diffamé, et à d’autres endroits. Sinon, nous ne les verrons pas à leur arrivée ici. Toutefois, les chercheurs sont plutôt ciblés et harcelés.
Peut-être que tout se passera bien. À l’ère de l’IA générative, des élections démocratiques importantes ont eu lieu sans problème majeur de désinformation : primaires en Argentine, élections au premier tour en Équateur et élections nationales en Thaïlande, en Turquie, en Espagne et en Grèce. Mais plus tôt nous saurons à quoi nous attendre, mieux nous pourrons faire face à ce qui vient.
Bruce Schneier ne travaille pas, ne consulte pas, ne détient pas d’actions ni ne reçoit de financement d’une entreprise ou d’une organisation qui bénéficierait de ce post, et n’a divulgué aucune affiliation pertinente au-delà de sa nomination universitaire.