L’IA au Royaume-Uni : entre prudence et nécessité de régulation
Le discours du trône de Charles III a déçu les experts du numérique. Si le nouveau gouvernement travailliste promet une future législation sur l’intelligence artificielle, les détails concrets manquent cruellement.
Mercredi dernier, tous les regards étaient tournés vers le roi Charles III lors de son discours devant le Parlement britannique. L’attente était palpable chez les spécialistes des technologies, impatients de connaître la position du nouveau gouvernement travailliste sur l’encadrement de l’intelligence artificielle (IA).
Malgré la solennité de l’événement, le discours royal, rédigé par le gouvernement, s’est révélé avare en informations précises. Si une future législation a été évoquée, sa forme et son calendrier restent flous.
“Le gouvernement cherchera à établir une législation appropriée pour imposer des exigences à ceux qui travaillent au développement des modèles d’intelligence artificielle les plus puissants”, a déclaré le roi Charles.
Cette déclaration, bien que vague, marque un changement de cap par rapport à l’approche restrictive de l’ancien gouvernement conservateur.
Un besoin de clarté pour l’industrie britannique de l’IA
Le manifeste du parti travailliste de 2024 laissait entrevoir des ambitions plus fortes, notamment l’interdiction des “deepfakes” à caractère sexuel et une régulation stricte des entreprises développant les modèles d’IA les plus avancés.
Ce manque de précision dans le discours du trône suggère que le gouvernement est encore en train de définir les contours d’une ”réglementation contraignante”. D’autres priorités législatives pourraient expliquer cette prudence.
Pourtant, le besoin de clarté est réel pour les entreprises britanniques évoluant dans le domaine de l’IA.
“Alors que l’UE progresse dans la publication de son règlement sur l’IA, les entreprises britanniques sont en attente de directives claires sur la manière de développer et de déployer l’IA de manière sûre et éthique”, souligne Bruna de Castro e Silva, spécialiste de la gouvernance de l’IA chez Saidot.
Un équilibre délicat entre innovation et protection
Le Royaume-Uni se trouve face à un dilemme de taille.
D’un côté, une régulation trop stricte risquerait de freiner l’innovation et la croissance économique d’un secteur en plein essor. De l’autre, l’absence de cadre clair pourrait ouvrir la voie à des dérives et à une perte de confiance du public.
Amanda Brock, directrice générale d’OpenUK, plaide pour une approche ouverte et flexible, s’inspirant des erreurs perçues dans le projet de règlement européen sur l’IA. Selon elle, une réglementation trop lourde risquerait de “stifier l’innovation” et de profiter uniquement aux géants du secteur.
Le gouvernement devra donc trouver un équilibre délicat entre la nécessité de protéger les citoyens et celle de permettre à l’écosystème britannique de l’IA de prospérer à l’échelle mondiale.
Le nouveau gouvernement hérite également de l’engagement pris par l’administration précédente lors du Sommet mondial sur la sécurité de l’IA en novembre dernier. Des acteurs majeurs comme OpenAI, Google DeepMind et Anthropic avaient alors accepté de donner accès à leurs modèles à un groupe de travail dédié à l’évaluation des risques liés à l’IA.
Reste à savoir si ces initiatives suffiront à rassurer les experts et à positionner le Royaume-Uni comme un acteur majeur d’une IA responsable et éthique.
Le Royaume-Uni face au défi de la régulation de l’IA : entre promesses vagues et besoin de clarté pour l’industrie.