Un bureau de surveillance de l’intelligence artificielle de l’Union européenne sera mis en place au sein de la Commission européenne, chargé de contrôler et de sanctionner le respect de la législation européenne en matière d’IA. Cette mesure vise à renforcer la gouvernance de l’intelligence artificielle dans l’Union européenne et à garantir que les États membres respectent les normes établies en matière d’IA. Le bureau aura pour mission de surveiller l’application des règles en vigueur, de mener des enquêtes en cas de non-conformité et de proposer des sanctions en cas d’infraction. Cette initiative s’inscrit dans une démarche visant à encadrer et à réguler le développement de l’intelligence artificielle en Europe, afin de garantir un usage éthique et responsable de cette technologie.
Une législation historique sur l’intelligence artificielle adoptée par l’Union Européenne
La décision des députés européens d’encadrer les systèmes d’intelligence artificielle (IA) comme ChatGPT marque une étape historique dans le domaine de la régulation des technologies. Le commissaire européen en charge de ce dossier, Thierry Breton, a salué le soutien massif du Parlement à cette législation révolutionnaire.
Ce projet de loi, présenté initialement par la Commission européenne en avril 2021, a pris tout son sens avec l’émergence de ChatGPT, développé par la start-up californienne OpenAI, capable de produire du contenu textuel de manière quasi-instantanée. Les risques liés à la manipulation de l’opinion publique ont été mis en lumière par la propagation de contenus falsifiés, tels que des photos ou vidéos dites « deep fakes ».
Des règles strictes pour une intelligence artificielle fiable
La législation adoptée par l’UE vise à établir des normes et des contrôles pour les différentes utilisations de l’IA. Les modèles d’IA dits « généraux » devront respecter des critères de transparence et se conformer aux réglementations européennes en matière de droits d’auteur. En revanche, les systèmes considérés comme à « haut risque » seront soumis à des exigences plus rigoureuses, avec notamment des évaluations d’impact sur les droits fondamentaux.
Les contenus générés artificiellement, tels que les « deep fakes », devront être clairement identifiés comme tels. De plus, des pratiques comme la notation citoyenne ou la surveillance de masse, largement utilisées en Chine, seront interdites. Des restrictions seront également mises en place pour l’identification biométrique à distance des individus dans les espaces publics, sauf pour des cas spécifiques liés à la sécurité nationale.
Surveillance et sanctions pour garantir le respect des règles
Pour assurer le respect de cette législation novatrice, un office européen de l’IA sera créé au sein de la Commission européenne. Cet organe aura le pouvoir d’imposer des amendes allant jusqu’à 35 millions d’euros pour les entreprises en infraction. Thierry Breton a souligné la nécessité de réglementer autant que nécessaire pour garantir une utilisation éthique et responsable de l’intelligence artificielle.
Cette avancée marque l’engagement de l’Union Européenne à devenir un modèle mondial en matière de régulation de l’IA, en conciliant innovation technologique et protection des droits individuels.