Getting your Trinity Audio player ready...
|
Définition de l’intelligence artificielle
Le AI Act définit l’intelligence artificielle comme “tout système qui peut, pour un but donné, générer des résultats imitant le comportement d’un être humain en traitant des informations“. Cette définition est large et comprend un large éventail de systèmes, tels que les systèmes de reconnaissance faciale, les systèmes de recommandation ou les systèmes de conduite autonome.
Le texte contient également une classification des systèmes d’IA
Le AI Act propose un classement des systèmes d’IA en fonction de leur niveau de risque potentiel.
Systèmes à haut risque
Ils sont susceptibles de porter atteinte aux droits fondamentaux des personnes, à la sécurité publique ou à l’environnement. Ils sont soumis à des exigences strictes, notamment en matière de transparence, de responsabilité et de sécurité.
Systèmes à risque modéré
Ils sont susceptibles de porter atteinte aux intérêts légitimes des personnes ou des organisations. Ils sont soumis à des exigences moins strictes que les systèmes à haut risque, mais ils doivent néanmoins être conformes à certains principes fondamentaux, tels que le respect de la vie privée et la non-discrimination.
Systèmes à faible risque
Ils ne sont pas susceptibles de porter atteinte aux droits fondamentaux des personnes ou à d’autres intérêts importants. Ils ne sont soumis à aucune exigence spécifique, mais ils doivent néanmoins être conformes au droit de l’Union européenne en général.
Exigences applicables aux systèmes d’IA
Le AI Act prévoit un certain nombre d’exigences applicables à tous les systèmes d’IA, quel que soit leur niveau de risque.
Ces exigences comprennent notamment :
Le respect des principes fondamentaux
Les systèmes d’IA doivent respecter les principes fondamentaux de l’Union européenne, tels que le respect de la vie privée, la non-discrimination et l’absence de biais.
La transparence
Les développeurs de systèmes d’IA doivent fournir des informations claires sur le fonctionnement de leurs systèmes, notamment sur les données utilisées, les algorithmes utilisés et les résultats attendus.
La responsabilité
Les développeurs de systèmes d’IA doivent être en mesure d’expliquer et de justifier les décisions prises par leurs systèmes. Ils doivent également être en mesure de remédier aux erreurs ou aux biais de leurs systèmes.
La sécurité
Les développeurs de systèmes d’IA doivent prendre des mesures pour garantir la sécurité de leurs systèmes, notamment en protégeant les données personnelles et en empêchant les cyberattaques.
Exigences applicables aux systèmes d’IA à haut risque
Les systèmes d’IA à haut risque sont soumis à des exigences supplémentaires.
Il s’agit de :
L’évaluation des risques
Les développeurs de systèmes d’IA à haut risque doivent évaluer les risques potentiels que présentent leurs systèmes.
Les mesures de mitigation
Les développeurs de systèmes d’IA à haut risque doivent prendre des mesures pour atténuer les risques potentiels que présentent leurs systèmes.
Le marquage
Les systèmes d’IA à haut risque doivent être marqués de manière à permettre aux utilisateurs de les identifier.
La création d’un organisme européen de l’IA
Le AI Act prévoit la création d’un organisme européen de l’IA, chargé de surveiller l’application du AI Act et de fournir des conseils aux États membres et aux entreprises.
Possibilité de dépôt de plaintes
Les citoyens et les organisations ont la possibilité de déposer des plaintes auprès des autorités compétentes en cas de violation du AI Act.
Le AI Act est entré en vigueur le 1er janvier 2025. Il doit être transposé dans le droit national des États membres au plus tard le 1er janvier 2027.
Cependant, à peine adoptée, le AI Act connait déjà de nombreuses critiques.
À lire aussi : Intelligence artificielle : à peine adoptée, le AI Act subit déjà de nombreuses critiques
À lire aussi : Intelligence artificielle : l’Union européenne adopte le AI Act : un tournant dans la régulation de l’intelligence artificielle
Digital Magazine Burkina, La Rédaction