Intelligence artificielle : l’Union européenne adopte le AI Act : un tournant dans la régulation de l’intelligence artificielle

Artificial Intelligence Digital World Tech
Getting your Trinity Audio player ready...

Le développement fulgurant de l’IA ne laisse pas indifférent à tous les niveaux ; notamment les risques de dérives et de mauvais usage. Du moratoire de six mois de pause demandé par des experts en début d’année à la démission de Geoffrey Hinton (ancien travailleur de Google et l’un des pères fondateurs de l’IA pour se consacrer à la sensibilisation sur les risques de l’IA) au 7 principes devant encadrer le développement de l’intelligence artificielle de la Competiton and Markets Authority (CMA) du Royaumes-Unis ; la régulation de l’IA est au coeur du débat. L’Europe comme à son habitude a voté une loi.

En effet, le 9 décembre 2023, le Parlement européen et le Conseil de l’Union européenne ont adopté le AI Act, un règlement visant à réglementer l’utilisation de l’intelligence artificielle (IA) dans l’Union européenne. Ce texte est une première mondiale et vise à garantir que l’IA soit développée et utilisée de manière responsable et éthique.

Le AI Act s’applique à tous les systèmes d’IA qui sont développés, mis sur le marché ou utilisés dans l’Union européenne.

Il distingue trois catégories de systèmes d’IA, en fonction de leur niveau de risque potentiel :

  • Les systèmes d’IA à “haut risque” : ils sont susceptibles de porter atteinte aux droits fondamentaux des personnes, à la sécurité publique ou à l’environnement. Ils sont soumis à des exigences strictes, notamment en matière de transparence, de responsabilité et de sécurité.
  • Les systèmes d’IA à “risque modéré” : ils sont susceptibles de porter atteinte aux intérêts légitimes des personnes ou des organisations. Ils sont soumis à des exigences moins strictes que les systèmes à haut risque, mais ils doivent néanmoins être conformes à certains principes fondamentaux, tels que le respect de la vie privée et la non-discrimination.
  • Les systèmes d’IA à “faible risque” : ils ne sont pas susceptibles de porter atteinte aux droits fondamentaux des personnes ou à d’autres intérêts importants. Ils ne sont soumis à aucune exigence spécifique, mais ils doivent néanmoins être conformes au droit de l’Union européenne en général.

Le AI Act prévoit également un certain nombre de mesures visant à garantir que l’IA soit développée et utilisée de manière responsable et éthique. 

Ces mesures comprennent notamment :

  • L’obligation pour les développeurs de systèmes d’IA de respecter des principes fondamentaux, tels que la transparence, la responsabilité, la non-discrimination et l’absence de biais.
  • La création d’un organisme européen de l’IA, chargé de surveiller l’application du AI Act et de fournir des conseils aux États membres et aux entreprises.
  • La possibilité pour les citoyens et les organisations de déposer des plaintes en cas de violation du AI Act.

L’adoption du AI Act est un tournant important dans la régulation de l’intelligence artificielle. Ce texte vise à garantir que l’IA soit développée et utilisée de manière responsable et éthique, dans le respect des droits fondamentaux des personnes.

Les principales implications du AI Act

Le AI Act aura un impact significatif sur le développement et l’utilisation de l’IA dans l’Union européenne. Il imposera de nouvelles exigences aux entreprises qui développent ou utilisent des systèmes d’IA, notamment en matière de transparence, de responsabilité et de sécurité.

Les principales implications du AI Act peuvent être résumées comme suit :

Une plus grande transparence

Les développeurs de systèmes d’IA devront fournir des informations claires sur le fonctionnement de leurs systèmes, notamment sur les données utilisées, les algorithmes utilisés et les résultats attendus.

Une plus grande responsabilité

Les développeurs de systèmes d’IA devront être en mesure d’expliquer et de justifier les décisions prises par leurs systèmes. Ils devront également être en mesure de remédier aux erreurs ou aux biais de leurs systèmes.

Une plus grande sécurité

Les développeurs de systèmes d’IA devront prendre des mesures pour garantir la sécurité de leurs systèmes, notamment en protégeant les données personnelles et en empêchant les cyberattaques.

Les critiques du AI Act

Le AI Act a été salué par de nombreux acteurs, notamment par les associations de protection des droits fondamentaux. Cependant, il a également suscité des critiques, notamment de la part des entreprises du secteur de l’IA.

Les principales critiques du AI Act portent sur les points suivants :

  • Les exigences sont trop strictes : les entreprises du secteur de l’IA craignent que les exigences du AI Act soient trop strictes et qu’elles entravent l’innovation.
  • Le texte est trop complexe : le AI Act est un texte complexe, qui est difficile à comprendre et à appliquer.
  • Le texte n’est pas suffisamment clair : le AI Act laisse certaines questions ouvertes, ce qui pourrait entraîner des interprétations différentes.

Le AI Act devrait entrer en vigueur le 1er janvier 2025. Il doit être transposé dans le droit national des États membres au plus tard le 1er janvier 2027.

Cependant, à peine adoptée, le AI Act connait déjà de nombreuses critiques.

À lire aussi : Intelligence artificielle : à peine adoptée, le AI Act subit déjà de nombreuses critiques

Digital Magazine Burkina Faso, La Rédaction