L’intelligence artificielle, depuis deux ans, est partout. Tout le monde l’utilise, mais peu est au courant que L’IA en entreprise est soumise à différentes règles, et notamment celles de l’AI Act, une législation européenne mise en place pour (tenter d’éviter les dérives d’un domaine que l’on ne maîtrise pas toujours.
Certains ont tendance à l’oublier, mais l’Europe a fait entrer en vigueur l’AI Act au sein de l’ensemble des pays de l’Union européenne, et ce, depuis le 1er aout 2024. L’intention est double : réguler l’utilisation de l’IA, mais aussi contrôler le développement des systèmes d’intelligence artificielle. Le législateur européen a dû ainsi jouer les équilibristes entre un besoin criant d’innovation technologique et la protection des droits fondamentaux de l’ensemble des citoyens européens.
Tout le monde est concerné par l’AI Act
Vous le verrez, les sanctions mises en place par le législateur européen ont de quoi faire frémir. C’est d’autant plus vrai que tous les acteurs de la vie professionnelle de nos pays sont concernés. Organismes publics ou entreprises privées, quelle que soit leur taille, doivent se soumettre aux règles édictées dans cette législation.
De manière plus précise, la Commission européenne a émis des règles pour trois acteurs majeurs dans le secteur de l’Intelligence Artificielle :
- Les fournisseurs ou développeurs de systèmes IA.
- Les déployeurs, sorte de revendeurs des applications d’intelligence artificielle.
- Les utilisateurs, c’est-à-dire plus ou moins tout le monde actif dans le monde professionnel qui aurait des velléités d’intégrer des applications IA dans ses processus internes.
Quatre niveaux de risque pour des attentes adaptées
Toutes les IA ne se valent pas en termes de risques encourus par les utilisateurs ou, par exemple, les clients de ces utilisateurs. Ici encore, la Commission européenne a souhaité mettre en place une classification des IA.
- Les systèmes à risque inacceptable.
Ceux-ci mettent en péril les droits fondamentaux des citoyens et sont totalement interdits. On parle de surveillance de masse dans les espaces publics, de notations sociales dans le cadre de processus à l’embauche… - Les systèmes à risque élevé
On parlera de risques élevés quand les applications IA sont utilisées dans des domaines sensibles, comme l’éducation, le recrutement, la sécurité publique. Ce sera aussi le cas s’il est un composant de sécurité pour un produit commercialisé dans l’Union européenne. On parle ici d’algorithmes qui permettraient de donner des diagnostics médicaux ou de logiciels capables de gérer un réseau de transports publics. Les fournisseurs sont ici tenus de fournir une documentation détaillée et d’analyser le niveau de risques et de sécurité des applications proposées. Le législateur a souhaité ici que l’intervention humaine dans le processus soit belle et bien présente. - Les systèmes à risque limité
Ce sont des systèmes nécessitant une transparence minimale. Des exemples ? Les chatbots conversationnels, mais aussi les systèmes de recommandation de contenu, doivent indiquer à l’utilisateur final que l’intelligence artificielle est utilisée pour lui apporter des réponses. En outre, le fournisseur de ce genre d’applications doit s’assurer que l’utilisateur final puisse toujours consulter les sources d’information. - Les systèmes à risque minimal
Pas de régulation pour ces systèmes considérés comme sans danger. Ce sont les outils d’assistants vocaux, de productivité ou de planification qui ont été regroupés sous le nom de Modèles à Usage Général. Toutefois, des obligations de contrôle peuvent être mises en place si la puissance de calcul de certains modèles devait l’exiger.
Ce que vous devez faire si vous utilisez l’IA
Il est important ici de se poser les bonnes questions. Il est donc important de déterminer la catégorie de risque dans laquelle est reprise l’application d’intelligence artificielle que vous souhaitez utiliser. Différents organismes d’évaluation ont vu le jour afin d’avoir une vue claire sur ce qui est admis, faisable ou, au contraire, interdit.
Une fois cette analyse effectuée, trois possibilités s’imposent aux utilisateurs :
- Cesser toute utilisation d’un système considéré comme inacceptable.
- Mettre en place des procédures de conformité pour assurer la sécurité des citoyens européens malgré l’utilisation de systèmes à haut risque.
- Garantir la transparence du fonctionnement des systèmes à risque limité.
- Rester au courant de la législation changeante, notamment concernant les Modèles à Usage Général.
Ce que vous risquez en cas d’utilisation non conforme de l’intelligence artificielle
L’idée ici n’est pas de vous effrayer et de rappeler que l’intelligence artificielle est un merveilleux outil qui pourra vous apporter une aide majeure en de nombreuses circonstances. Toutefois, toujours pour éviter les dérives, la Commission européenne a déterminé des sanctions allant de 35 millions d’euros ou 7% du chiffre d’affaires de la société condamnée à des amendes de 7,5 millions d’euros pour des situations moins conflictuelles. Vous avez des questions sur les chiffres de votre entreprise ? Posez-les à Magecofi-Atecofi via son formulaire de contact. Nous nous ferons un plaisir de vous renseigner sur l’optimisation fiscale de vos revenus.