L'administration Biden est sur le point d'ouvrir un nouveau front dans ses efforts pour protéger l'IA américaine de la Chine et de la Russie, avec des plans préliminaires pour placer des garde-fous autour des modèles d'IA les plus avancés, le logiciel de base des systèmes d'intelligence artificielle tels que ChatGPT, ont déclaré des sources.

Le ministère du commerce envisage de mettre en place une nouvelle réglementation visant à restreindre l'exportation de modèles d'IA propriétaires ou à source fermée, dont le logiciel et les données sur lesquelles ils sont entraînés sont gardés secrets, ont déclaré trois personnes au fait de la question.

Toute action viendrait compléter une série de mesures mises en place au cours des deux dernières années pour bloquer l'exportation de puces d'IA sophistiquées vers la Chine, afin de ralentir le développement par Pékin de cette technologie de pointe à des fins militaires. Malgré cela, il sera difficile pour les régulateurs de suivre le rythme des développements rapides de l'industrie.

Le ministère du commerce s'est refusé à tout commentaire, tandis que l'ambassade de Russie à Washington n'a pas répondu immédiatement à une demande de commentaire. L'ambassade de Chine a qualifié cette démarche d'"acte typique de coercition économique et d'intimidation unilatérale, auquel la Chine s'oppose fermement", ajoutant qu'elle prendrait les "mesures nécessaires" pour protéger ses intérêts.

À l'heure actuelle, rien n'empêche les géants américains de l'IA, comme OpenAI, soutenu par Microsoft, Google DeepMind, d'Alphabet, et son rival Anthropic, qui ont mis au point certains des modèles d'IA à source fermée les plus puissants, de les vendre à presque n'importe qui dans le monde, sans contrôle gouvernemental.

Les chercheurs du gouvernement et du secteur privé craignent que les adversaires des États-Unis n'utilisent ces modèles, qui exploitent de grandes quantités de textes et d'images pour résumer des informations et générer du contenu, pour mener des cyberattaques agressives ou même créer des armes biologiques puissantes.

L'une des sources a déclaré que tout nouveau contrôle des exportations viserait probablement la Russie, la Chine, la Corée du Nord et l'Iran. Microsoft a déclaré dans un rapport publié en février qu'elle avait suivi des groupes de pirates informatiques affiliés aux gouvernements chinois et nord-coréen, ainsi qu'aux services de renseignement militaire russes et aux gardiens de la révolution iraniens, alors qu'ils tentaient de perfectionner leurs campagnes de piratage à l'aide de grands modèles de langage.

PUISSANCE DE CALCUL

Pour mettre en place un contrôle des exportations de modèles d'IA, les sources ont indiqué que les États-Unis pourraient se tourner vers un seuil contenu dans un décret sur l'IA publié en octobre dernier et basé sur la puissance de calcul nécessaire pour entraîner un modèle. Lorsque ce seuil est atteint, un développeur doit signaler ses plans de développement de modèles d'IA et fournir les résultats des tests au ministère du commerce.

Ce seuil de puissance de calcul pourrait servir de base pour déterminer quels modèles d'IA seraient soumis à des restrictions à l'exportation, selon deux fonctionnaires américains et une autre source informée des discussions. Ils ont refusé d'être nommés car les détails n'ont pas été rendus publics.

S'il est utilisé, il ne restreindra probablement que l'exportation des modèles qui n'ont pas encore été commercialisés, car aucun n'a encore atteint le seuil, bien que le Gemini Ultra de Google en soit considéré comme proche, selon EpochAI, un institut de recherche qui suit les tendances en matière d'intelligence artificielle.

L'agence est loin d'avoir finalisé une proposition de règlement, ont souligné les sources. Mais le fait qu'une telle mesure soit envisagée montre que le gouvernement américain cherche à combler les lacunes dans ses efforts pour contrecarrer les ambitions de Pékin en matière d'IA, malgré les défis importants que pose l'imposition d'un régime réglementaire musclé pour cette technologie en évolution rapide.

Alors que l'administration Biden se penche sur la concurrence avec la Chine et les dangers de l'IA sophistiquée, les modèles d'IA "sont évidemment l'un des outils, l'un des points d'étranglement potentiels auxquels vous devez penser ici", a déclaré Peter Harrell, un ancien fonctionnaire du Conseil de sécurité nationale. "Il reste à voir si vous pouvez, dans la pratique, en faire un point d'étranglement contrôlable à l'exportation", a-t-il ajouté.

ARMES BIOLOGIQUES ET CYBERATTAQUES ?

La communauté américaine du renseignement, les groupes de réflexion et les universitaires sont de plus en plus préoccupés par les risques posés par les acteurs étrangers mal intentionnés qui accèdent à des capacités d'IA avancées. Des chercheurs de Gryphon Scientific et de la Rand Corporation ont noté que les modèles d'IA avancés peuvent fournir des informations susceptibles de contribuer à la création d'armes biologiques.

Le ministère de la sécurité intérieure a déclaré que les cyberacteurs utiliseraient probablement l'IA pour "développer de nouveaux outils" afin de "permettre des cyberattaques à plus grande échelle, plus rapides, plus efficaces et plus évasives" dans son évaluation de la menace pour la sécurité intérieure en 2024.

"L'explosion potentielle de l'utilisation et de l'exploitation [de l'IA] est radicale et nous avons beaucoup de mal à la suivre", a déclaré Brian Holmes, un responsable du bureau du directeur du renseignement national, lors d'une réunion sur le contrôle des exportations en mars, en soulignant que les progrès de la Chine étaient particulièrement préoccupants.

LA CRISE DE L'IA

Pour répondre à ces préoccupations, les États-Unis ont pris des mesures pour endiguer le flux de puces d'IA américaines et des outils nécessaires à leur fabrication vers la Chine.

Ils ont également proposé une règle obligeant les entreprises américaines de cloud computing à informer le gouvernement lorsque des clients étrangers utilisent leurs services pour former de puissants modèles d'IA susceptibles d'être utilisés pour des cyberattaques.

Mais jusqu'à présent, elle n'a pas abordé la question des modèles d'IA eux-mêmes. Alan Estevez, qui supervise la politique d'exportation des États-Unis au ministère du commerce, a déclaré en décembre que l'agence examinait les possibilités de réglementer les exportations de grands modèles de langage (LLM) avant de demander l'avis de l'industrie.

Tim Fist, expert en politique de l'IA au sein du groupe de réflexion CNAS basé à Washington DC, estime que le seuil "est une bonne mesure temporaire jusqu'à ce que nous développions de meilleures méthodes pour mesurer les capacités et les risques des nouveaux modèles".

Jamil Jaffer, ancien fonctionnaire de la Maison Blanche et du ministère de la Justice, estime que l'administration Biden ne devrait pas utiliser de seuil de puissance de calcul, mais opter pour un contrôle basé sur les capacités du modèle et l'utilisation prévue. "Se concentrer sur le risque pour la sécurité nationale plutôt que sur les seuils technologiques est la meilleure solution, car elle est plus durable et plus ciblée sur la menace", a-t-il déclaré.

Le seuil n'est pas gravé dans le marbre. L'une des sources a déclaré que le département du commerce pourrait finir par fixer un seuil inférieur, en fonction d'autres facteurs, comme le type de données ou les utilisations potentielles du modèle d'IA, par exemple la capacité de concevoir des protéines qui pourraient être utilisées pour fabriquer une arme biologique.

Quel que soit le seuil, les exportations de modèles d'IA seront difficiles à contrôler. De nombreux modèles sont des logiciels libres, ce qui signifie qu'ils resteraient hors de portée des contrôles d'exportation envisagés.

Même l'imposition de contrôles sur les modèles propriétaires les plus avancés s'avérera difficile, car les régulateurs auront probablement du mal à définir les bons critères pour déterminer quels modèles devraient être contrôlés, a déclaré M. Fist, notant que la Chine n'a probablement qu'environ deux ans de retard sur les États-Unis en ce qui concerne le développement de ses propres logiciels d'IA.

Le contrôle des exportations envisagé aurait une incidence sur l'accès au logiciel de base qui alimente certaines applications grand public comme ChatGPT, mais ne limiterait pas l'accès aux applications en aval elles-mêmes. (Reportage d'Alexandra Alper ; reportages complémentaires de Karen Freifeld et Anna Tong ; rédaction de Chris Sanders et Anna Driver)