L'administration Biden est sur le point d'ouvrir un nouveau front dans ses efforts pour protéger l'IA américaine de la Chine et de la Russie, avec des plans préliminaires pour placer des garde-fous autour des modèles d'IA les plus avancés, a rapporté Reuters mercredi.

Les chercheurs du gouvernement et du secteur privé craignent que les adversaires des États-Unis n'utilisent ces modèles, qui exploitent de grandes quantités de textes et d'images pour résumer des informations et générer du contenu, pour mener des cyberattaques agressives ou même créer des armes biologiques puissantes.

Voici quelques menaces posées par l'IA :

DEEPFAKES ET DÉSINFORMATION

Les "deepfakes" - des vidéos réalistes mais fabriquées par des algorithmes d'IA formés à partir d'une multitude d'images en ligne - font leur apparition sur les médias sociaux, brouillant la réalité et la fiction dans le monde polarisé de la politique américaine.

Bien que ces médias synthétiques existent depuis plusieurs années, ils ont été dopés au cours de l'année écoulée par une série de nouveaux outils d'"IA générative", tels que Midjourney, qui permettent de créer facilement et à peu de frais des "deepfakes" convaincants.

Les outils de création d'images alimentés par l'intelligence artificielle d'entreprises telles que OpenAI et Microsoft peuvent être utilisés pour produire des photos susceptibles de promouvoir la désinformation liée aux élections ou aux votes, bien que chacune d'entre elles ait mis en place des politiques contre la création de contenu trompeur, ont indiqué des chercheurs dans un rapport publié en mars.

Certaines campagnes de désinformation exploitent simplement la capacité de l'IA à imiter de vrais articles de presse pour diffuser de fausses informations. Si les grandes plateformes de médias sociaux comme Facebook, Twitter et YouTube se sont efforcées d'interdire et de supprimer les "deepfakes", leur efficacité en la matière varie. Par exemple, l'année dernière, un site d'information contrôlé par le gouvernement chinois et utilisant une plateforme d'IA générative a diffusé une fausse information précédemment diffusée selon laquelle les États-Unis géraient un laboratoire au Kazakhstan pour créer des armes biologiques destinées à être utilisées contre la Chine, a déclaré le ministère de la sécurité intérieure (DHS) dans son évaluation de la menace pour la sécurité intérieure en 2024.

Le conseiller à la sécurité nationale, Jake Sullivan, s'exprimant lors d'un événement sur l'IA à Washington mercredi, a déclaré que le problème n'avait pas de solution facile car il combine la capacité de l'IA avec "l'intention des acteurs étatiques et non étatiques d'utiliser la désinformation à grande échelle, de perturber les démocraties, de faire avancer la propagande, de façonner la perception dans le monde".

"Pour l'instant, l'offensive l'emporte largement sur la défensive", a-t-il ajouté.

BIOWEAPONS

La communauté américaine du renseignement, les groupes de réflexion et les universitaires sont de plus en plus préoccupés par les risques posés par les acteurs étrangers malveillants qui accèdent aux capacités avancées de l'IA. Des chercheurs de Gryphon Scientific et de la Rand Corporation ont noté que les modèles d'IA avancés peuvent fournir des informations susceptibles de contribuer à la création d'armes biologiques.

Gryphon a étudié la manière dont les grands modèles de langage (LLM) - des programmes informatiques qui puisent dans des quantités massives de texte pour générer des réponses à des requêtes - pourraient être utilisés par des acteurs hostiles pour causer des dommages dans le domaine des sciences de la vie et a constaté qu'ils "peuvent fournir des informations susceptibles d'aider un acteur malveillant à créer une arme biologique en fournissant des informations utiles, précises et détaillées à chaque étape de ce parcours".

Ils ont constaté, par exemple, qu'un LLM pouvait fournir des connaissances de niveau post-doctoral pour résoudre des problèmes lors du travail avec un virus capable de provoquer une pandémie.

La recherche Rand a montré que les LLM pouvaient contribuer à la planification et à l'exécution d'une attaque biologique. Ils ont constaté qu'un LLM pouvait, par exemple, suggérer des méthodes d'administration par aérosol pour la toxine botulique.

CYBERWEAPONS

Dans son évaluation de la menace intérieure pour 2024, le DHS a déclaré que les cyberacteurs utiliseraient probablement l'IA pour "développer de nouveaux outils" afin de "permettre des cyberattaques à plus grande échelle, plus rapides, plus efficaces et plus évasives" contre les infrastructures critiques, y compris les pipelines et les chemins de fer.

La Chine et d'autres adversaires développent des technologies d'IA qui pourraient affaiblir les cyberdéfenses américaines, a déclaré le DHS, notamment des programmes d'IA générative qui soutiennent les attaques de logiciels malveillants.

Microsoft a indiqué dans un rapport publié en février qu'elle avait suivi des groupes de pirates informatiques affiliés aux gouvernements chinois et nord-coréen, ainsi qu'aux services de renseignement militaire russes et aux gardiens de la révolution iraniens, alors qu'ils tentaient de perfectionner leurs campagnes de piratage à l'aide de grands modèles de langage.

DE NOUVEAUX EFFORTS POUR FAIRE FACE AUX MENACES

Un groupe bipartisan de législateurs a dévoilé mercredi dernier un projet de loi qui permettrait à l'administration Biden d'imposer plus facilement des contrôles à l'exportation sur les modèles d'IA, dans le but de protéger cette technologie américaine très prisée contre les acteurs étrangers mal intentionnés.

Le projet de loi, parrainé par les républicains Michael McCaul, John Molenaar, Max Wise et le démocrate Raja Krishnamoorthi, donnerait également au département du commerce l'autorité expresse d'interdire aux Américains de travailler avec des étrangers pour développer des systèmes d'IA qui posent des risques pour la sécurité nationale des États-Unis.

Tony Samp, conseiller politique en matière d'IA à Washington, a déclaré que les décideurs politiques à Washington tentent de "favoriser l'innovation et d'éviter une réglementation lourde qui étouffe l'innovation", alors qu'ils cherchent à faire face aux nombreux risques posés par la technologie.

Il a toutefois mis en garde contre le fait que "la répression du développement de l'IA par le biais de la réglementation pourrait entraver des percées potentielles dans des domaines tels que la découverte de médicaments, les infrastructures, la sécurité nationale et d'autres, et céder du terrain à des concurrents étrangers". (Reportage d'Alexandra Alper ; Rédaction d'Anna Driver et de Stephen Coates)