Search

L’UE dévoile un plan d’action pour freiner l’IA «  à haut risque  »


L’ensemble de propositions reclassera différentes applications d’IA en fonction de leurs risques et mettra en œuvre divers degrés de restrictions.

Après des semaines de fuites, la Commission européenne a dévoilé son plan de régulation de l’intelligence artificielle.

Tout comme l’UE a pris le relais sur les lois sur la protection des données, la Commission espère établir de nouvelles normes de surveillance de l’intelligence artificielle dans le but de créer ce qu’elle appelle une «IA digne de confiance».

Des restrictions seront introduites sur les utilisations à haut risque de la technologie avec un potentiel d’amendes pour les infractions. Les amendes peuvent représenter jusqu’à 6% du chiffre d’affaires mondial ou 30 millions d’euros, selon le montant le plus élevé.

Le cadre juridique sera mis en œuvre à travers un plan de coordination entre les États membres.

La réglementation considérera l’IA sous quatre catégories différentes: risque inacceptable, risque élevé, risque limité et risque minimal.

En cas de risque inacceptable, les soi-disant cotes de crédit sociales, un système controversé vu en Chine et les applications qui «manipulent le comportement humain» seront interdits.

En ce qui concerne les cas d’utilisation à haut risque, cela comprend l’utilisation de l’IA dans les infrastructures essentielles, l’application de la loi, la migration et les patrouilles aux frontières, l’emploi et le recrutement, et l’éducation.

Il stipule que ces applications mettent en œuvre des contrôles de sécurité stricts, tiennent des journaux sur la façon dont la technologie est utilisée pour l’audit et fournissent des données aux utilisateurs sur le fonctionnement de l’IA. De plus, cela nécessite une certaine surveillance humaine de la technologie utilisée.

Cette catégorie permet toujours l’utilisation de «systèmes d’identification biométrique à distance», comme la reconnaissance faciale en direct. Certains députés européens et groupes de la société civile réclamaient une interdiction pure et simple de l’utilisation de la reconnaissance faciale en direct dans les espaces publics.

Soutenir Silicon Republic

Au lieu de cela, la Commission a déclaré qu ‘«une telle utilisation est soumise à l’autorisation d’un organe judiciaire ou autre indépendant et à des limites appropriées dans le temps, la portée géographique et les bases de données recherchées».

Moins de risques

La catégorie de risque limité exige que les systèmes soient transparents sur le fait que l’IA fonctionne. Dans un exemple, un chatbot doit faire savoir à un utilisateur qu’il interagit avec une machine et non avec un humain.

La Commission a déclaré que «la grande majorité des systèmes d’IA» entrait dans la catégorie des risques minimaux. Cela permet à des utilisations rudimentaires de fonctionner en grande partie librement, telles que les filtres anti-spam activés par l’IA.

«En matière d’intelligence artificielle, la confiance est un must, pas une bonne chose à avoir. Avec ces règles historiques, l’UE est le fer de lance du développement de nouvelles normes mondiales pour s’assurer que l’intelligence artificielle est digne de confiance », a déclaré Margrethe Vestager, vice-présidente exécutive pour une Europe digne de l’ère numérique.

«En établissant des normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier et garantir que l’UE reste compétitive en cours de route. À l’épreuve du futur et favorables à l’innovation, nos règles interviendront là où c’est strictement nécessaire: lorsque la sécurité et les droits fondamentaux des citoyens de l’UE sont en jeu. »

Vestager, qui est également commissaire à la concurrence, a annoncé les propositions aujourd’hui (21 avril) aux côtés de Thierry Breton, commissaire au marché intérieur.

Les commissaires ont proposé la création d’un comité européen de l’intelligence artificielle pour mettre en œuvre les règles avec les autorités des États membres qui les appliquent. Ils ont ensuite suggéré d’établir des codes de conduite volontaires pour l’IA non à haut risque et les bacs à sable réglementaires afin de permettre le test et le développement de l’IA, mais avec supervision.

Le «plan coordonné» de la Commission alignera les 27 États membres sur la manière de promulguer et de suivre les nouvelles règles, une fois qu’elles seront adoptées.

«Les propositions d’aujourd’hui visent à renforcer la position de l’Europe en tant que pôle mondial d’excellence en IA du laboratoire au marché, à garantir que l’IA en Europe respecte nos valeurs et nos règles, et à exploiter le potentiel de l’IA à des fins industrielles», a déclaré Breton.

Les prochaines étapes de la proposition doivent être adoptées par le Parlement européen et les États membres.

Partager:

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Articles Similaires