top of page

Qu'est-ce que l'IA Act ?

  • parizk
  • 15 févr.
  • 3 min de lecture


ree

L’IA Act est un règlement européen destiné à instaurer un cadre juridique uniforme au développement, à la mise sur le marché, à la mise en service et à l’utilisation de systèmes d’IA. 

Avec ce texte, l’UE affiche explicitement sa volonté de devenir un acteur de premier plan dans le développement d’une IA éthique tout en favorisant l’innovation et la création d’emplois.


Quels acteurs sont concernés ?


Le texte cible non seulement le fournisseur et le déployeur mais également le mandataire, l’importateur et le distributeur. Ce sont toutefois les deux premiers qui sont principalement visés.

Le fournisseur est la personne physique ou morale qui développe ou fait développer un système d’IA ou un modèle d’IA à usage général et le met sur le marché ou met le système d’IA en service sous son propre nom ou sa propre marque, à titre onéreux ou gratuit.

Le fournisseur est quant à lui la personne physique ou morale qui utilise sous sa propre autorité un système d’IA, sauf si ce système est utilisé dans le cadre d’une activité personnelle.


Quelles obligations ?


Les obligations découlant de l’IA Act dépendent des catégories de systèmes d’IA. Le texte en distingue trois types :


  • Les systèmes d’IA interdits : ces systèmes ne pourront tout simplement pas être mis en place.  

  • Les systèmes d’IA à haut risque : ce sont ceux qui ont une incidence préjudiciable substantielle sur la santé, la sécurité et les droits fondamentaux des citoyens dans l’UE. Ils doivent justifier d’une qualité constante tout au long de leur cycle de vie et assurer un niveau approprié d’exactitude, de robustesse et de cybersécurité.

  • Les systèmes d’IA à risque limité : ils n’ont pas d’incidence substantielle sur la prise de décision. Ces systèmes sont uniquement soumis à des obligations de transparence.



Quelles sanctions ?


A partir du mois d’août 2025, les entreprises ne respectant pas les dispositions relatives aux pratiques d’IA interdites risqueront une amende dont le montant pourra atteindre 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial total réalisé au cours de l’exercice précédent, le montant le plus élevé étant retenu.


Les contrevenants aux autres dispositions du texte risqueront une amende administrative dont le montant pourra s’élever à 15 millions d’euros ou 3 % du chiffre d’affaires annuel mondial réalisé au cours de l’exercice précédent. Le montant le plus élevé sera retenu.


La fourniture d’informations inexactes, incomplètes ou trompeuses sera également sanctionnée à hauteur de 7,5 millions d’euros ou 1 % du chiffre d’affaires annuel mondial réalisé au cours de l’exercice précédent, là encore selon le montant le plus élevé.



Quand entrera-t-il en application ?


Bien qu’entré en vigueur le 1er août 2024, son application s’effectue de manière progressive :


  • 2 février 2025 : utilisations de l’IA qui comportent un risque inacceptable

  • 2 août 2025 modèles d’IA à usage général

  • 2 août 2026 ensemble du règlement, sauf pour les dispositions ci-dessous

  • 2 août 2027 catégorie d’IA à haut risque (biométrie, éducation ou encore répression)



Chez Fairworks, nous ne percevons pas l’IA Act comme une contrainte mais comme une opportunité de repenser la gestion des risques en entreprise.


Pourquoi ? Parce que le respect de ce cadre juridique permet de :


  • Protéger les collaborateurs contre les dérives.

  • Simplifier le quotidien des RH grâce à des fonctionnalités d’IA éthique.

  • Instaurer un climat de confiance avec nos clients et partenaires.


Cela concorde parfaitement avec notre mission : mettre à disposition des entreprises une plateforme intuitive et sécurisée pour prévenir les risques liés au harcèlement et promouvoir un environnement de travail sain et harmonieux.


Fairworks, c’est :


  • Un outil conforme à l’IA Act et au RGPD, garantissant éthique et sécurité des données.

  • Une réponse concrète aux besoins des RH pour anticiper, gérer et résoudre les situations sensibles.


Vous voulez en savoir plus sur notre engagement pour l’IA éthique ou sur notre outil ? Discutons-en.


 
 
 

Commentaires


bottom of page