Meta, Microsoft, Google, OpenAI, TikTok, Adobe, «et d’autres» entreprises actives dans l’intelligence artificielle (IA) générative mettent la dernière main à un pacte qui doit être dévoilé vendredi en marge de la grande conférence de Munich sur la sécurité (MSC), a déclaré jeudi un porte-parole de Meta à l’AFP.
«En cette année cruciale sur le plan électoral», avec des scrutins majeurs prévus aux États-Unis, au Royaume-Uni, en Inde, dans l’Union européenne ou en Russie, «les entreprises technologiques travaillent de concert afin de combattre l’utilisation de l’IA pour tromper les électeurs», selon le porte-parole.
Selon le Washington Post, qui a, le premier, fait état de cet accord, les partenaires vont travailler à des outils permettant de repérer les contenus trompeurs, les identifier comme tels pour les utilisateurs et les contrôler.
L’IA dite générative permet de créer, sur simple demande en langage courant, du texte, des images, des fichiers sonores ou des vidéos, susceptibles de faire passer pour authentiques des documents générés de toutes pièces. Grâce à des archives, la technologie peut notamment produire des «deepfakes», des documents qui présentent une personne en train de dire ou de faire quelque chose alors que cela ne s’est jamais produit.
Plusieurs «deepfakes» ont fait parler d’eux ces dernières semaines, notamment un faux message téléphonique du président américain Joe Biden avant la primaire démocrate du New Hampshire, fin janvier. Samedi, le parti de l’ancien Premier ministre pakistanais Imran Khan a diffusé un message vidéo utilisant l’IA générative et mettant en scène son leader, actuellement incarcéré et dans l’impossibilité de s’exprimer publiquement.
Meta, Google, Microsoft et OpenAI ont déjà mis en place un système de marquage (watermark) qui permet l’identification d’un contenu créé grâce à l’IA générative.