L'autorité britannique de contrôle de la protection des données a averti les entreprises qu'elles devaient tenir compte du droit à la vie privée des personnes lorsqu'elles utilisent l'intelligence artificielle (IA), sous peine non seulement de se voir infliger des amendes, mais aussi de perdre la confiance du public dans cette technologie.

Le commissaire à l'information du pays, John Edwards, a déclaré lors d'un discours prononcé mercredi que les entreprises doivent protéger les informations personnelles de leurs clients en toutes circonstances lorsqu'elles utilisent l'IA.

"Vous ne pouvez pas espérer utiliser l'IA dans vos produits ou services sans tenir compte de la vie privée, de la protection des données et de la manière dont vous préserverez les droits des personnes", a déclaré M. Edwards.

"Notre message à ces organisations est clair : le non-respect de la protection des données ne sera pas rentable", a-t-il ajouté, précisant que des amendes seraient infligées en fonction des gains mal acquis obtenus grâce au non-respect des règles.

Les risques liés au développement rapide de l'IA constituent une priorité de plus en plus importante pour les décideurs politiques du monde entier depuis qu'Open AI, soutenu par Microsoft, a rendu public le logiciel ChatGPT l'année dernière.

La Grande-Bretagne a accueilli en novembre le premier sommet mondial sur la sécurité de l'intelligence artificielle. Si un large consensus s'est dégagé sur la nécessité de réglementer l'IA, un plan mondial de supervision de cette technologie est encore loin d'être mis en place.

M. Edwards a mis en garde les entreprises qui utilisent l'IA contre le risque de s'aliéner le public en faisant preuve de prudence dans l'utilisation de cette technologie.

"Si les gens ne font pas confiance à l'IA, ils seront moins enclins à l'utiliser, ce qui se traduira par une réduction des avantages et une diminution de la croissance ou de l'innovation dans la société dans son ensemble", a-t-il déclaré. (Reportage de Sarah Young ; édition de Michael Holden)