Orateur(s)
Pieter Van Cleynenbreugel Professeur ordinaire (Faculté de Droit, de Science politique et de Criminologie, ULiège)
Jérôme De Cooman Chercheur-doctorant (Faculté de Droit, de Science Politique et de Criminologie, ULiège)

Réglementation européenne de l’IA et son impact sur le monde de l’entreprise

Résumé

Pieter Van Cleynenbreugel, Professeur ordinaire à la Faculté de Droit, de Science politique et de Criminologie de l’Université de Liège, a démarré cette rencontre-conférence en évoquant l’historique et la genèse de l’Artificial Intelligence Act (AI Act). L’intelligence artificielle existe depuis plus de 60 ans. Cependant, nous assistons à une utilisation accrue des Big Data. Cette utilisation massive a donné naissance à des craintes légitimes au sein des politiciens européens. Dès lors, l’Union européenne a souhaité se doter d’un instrument législatif classique prenant la forme d’un règlement, qui s’applique directement au niveau des états membres. Ce règlement sera publié dans le Journal officiel de l’UE et rentrera en vigueur, 20 jours après sa publication.

Il a poursuivi en évoquant les caractéristiques clés de l’AI Act et son champ d’application. Il est important de distinguer deux champs d’application matérielle. D’une part les systèmes d’IA, c’est-à-dire « des systèmes automatisés conçus pour fonctionner à différents niveaux d’autonomie qui peuvent faire preuve d’une capacité d’adaptation après son déploiement et qui, pour des objectifs explicites ou implicites, déduit, à partir de données d’entrée qu’ils reçoivent, la manière de générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels ». 

Et d’autre part, les modèles d’IA à usage général, c’est-à-dire « des modèles, y compris celui entraîné à l’aide d’un grand nombre de données utilisant l’auto-supervision, présentant une généralité significative et capable d’exécuter de manière compétente un large éventail de tâches distinctes, indépendamment de la manière dont il est mis sur le marché et qui peut être intégré dans une variété de systèmes ou d’application en aval ».

Concernant l’application territoriale, celle-ci concernera toute commercialisation ou usage à titre professionnel d’un système d’IA au sein de l’UE, même à partir d’un pays tiers. Par contre, l’AI Act ne s’appliquera pas à des fins exclusivement militaires, de défense ou de sécurité nationale et dans le cadre des recherches ou activités scientifiques, y compris le développement des systèmes IA.

La classification du système repose sur 4 catégories. La réglementation prévoit une 5ème catégorie pour les modèles. L’AI Act distingue quatre types de risques d’utilisation, de « inacceptables » à « minimes ». En fonction de chaque usage, des obligations s’appliquent (voir schéma). Il est important de savoir que si le risque est inacceptable, les usages seront clairement interdits par l’AI Act

De plus, il existe un cadre complémentaire portant sur les modèles d’IA à usage général présentant un risque systémique. Dans ce contexte, la décision devra être prise par la Commission européenne via son bureau AI Office. Celui-ci pourra donner des exigences supplémentaires visant à atténuer le risque systémique. 

Jérôme De Cooman, Chercheur-doctorant à la Faculté de Droit, de Science Politique et de Criminologie à l’Université de Liège, a appuyé l’intervention de Pieter Van Cleynenbreugel en évoquant la perspective d’une entreprise confrontée à l’usage de l’IA. 

À travers un schéma à consulter ici, vous pourrez répondre aux questions suivantes : Comment mobiliser le cadre législatif de l’AI Act en pratique ? Quelles obligations s’appliquent dans quel contexte ?