Règlement sur l'intelligence artificielle (IA)
Adopté en 2024, le règlement européen sur l'intelligence artificielle, plus connu sous le nom d'IA Act, marque une étape majeure dans la régulation des technologies d'IA au sein de l'Union européenne. En posant un cadre juridique harmonisé, fondé sur une approche par les risques, ce texte vise à garantir un développement de l'IA respectueux des droits fondamentaux, de la sécurité et de la transparence. Alors que son application s'étale entre 2025 et 2027, il est essentiel pour les acteurs concernés — y compris dans le secteur du transport de personnes — d'en comprendre les principes, les obligations, et les échéances.
1. Objectif général de l'AI Act
L' objectif principal de l'IA est d'assurer que les systèmes d'IA mis sur le marché ou utilisés dans l'UE soient sûrs, respectueux des droits fondamentaux, et conformes aux valeurs européennes, tout en encourageant l'innovation.
Inspiré du principe de précaution et d'une logique de gestion des risques, le règlement introduit une classification des systèmes d'IA en fonction de leur niveau de risque, et impose des obligations spécifiques aux opérateurs économiques (développeurs, fournisseurs, importateurs, utilisateurs).
2. Champ d'application du règlement
Le règlement s'applique à toute entité (publique ou privée) qui :
-
met sur le marché, met en service, ou utilise un système d'IA dans l'Union européenne,
-
indépendamment du lieu d'établissement du fournisseur ou de l'utilisateur,
-
dès lors que les effets du système se produisent dans l'UE.

3. Typologie des systèmes d'IA : approche fondée sur le risque
Le cœur du mécanisme repose sur une classification à quatre niveaux de risque :
a) Risque inacceptable (interdits)
Certains usages sont strictement interdits, car contraires aux droits fondamentaux :
-
systèmes de notation sociale (type "crédit social"),
-
manipulation cognitive ou comportementale à grande échelle,
-
reconnaissance biométrique à distance en temps réel dans l'espace public (sauf exceptions strictes, notamment par les autorités publiques).
Exemple sectoriel : un système installé dans des autobus pour analyser les émotions des passagers en temps réel (afin d'ajuster automatiquement des publicités) pourrait être considéré comme une manipulation comportementale interdite, selon les critères de l'article 5.
b) Risque élevé (soumis à des obligations strictes)
Les systèmes à haut risque sont autorisés, mais sous condition de conformité à des exigences strictes de sécurité, transparence, documentation, gestion des données et surveillance humaine. Cela inclut notamment :
-
les systèmes utilisés dans les infrastructures de transport (article 6),
-
les systèmes qui affectent significativement la sécurité des personnes.
Exemple sectoriel :
-
Un système d'IA qui assiste à la conduite autonome ou semi-autonome d'un autocar.
-
Un algorithme de recrutement automatisé pour sélectionner les chauffeurs de bus.
Ces systèmes seront soumis à une évaluation de conformité avant leur mise sur le marché, ainsi qu'à une obligation d'enregistrement dans la base de données européenne tenue par la Commission.
c) Risque limité (obligations de transparence)
Certains systèmes à faible risque mais ayant un impact sur les utilisateurs (par exemple, les chatbots ou les interfaces vocales) doivent informer clairement les utilisateurs qu'ils interagissent avec une IA.
Exemple sectoriel :
-
Un assistant vocal intégré dans les bus pour répondre aux questions des passagers.
-
Un système de réservation intelligent sur une application mobile.
d) Risque minimal ou nul
Les systèmes d'IA à usage purement fonctionnel ou non sensible (ex. : systèmes de navigation GPS basiques) ne sont pas soumis à des obligations spécifiques, mais les opérateurs sont encouragés à suivre des codes de conduite volontaires.

4. Calendrier d'entrée en vigueur
Le Règlement est applicable à partir du 2 août 2026, toutefois certaines dispositions entrent en application avant ou après cette date :
2 février 2025
1. Obligation concernant la maitrise de l'IA:
Les fournisseurs et les déployeurs de systèmes d'IA prennent des mesures pour assurer, dans la mesure du possible, un niveau suffisant de connaissances en matière d'IA à leur personnel et aux autres personnes chargées du fonctionnement et de l'utilisation des systèmes d'IA en leur nom.
Le terme « Déployeur » désigne toute personne physique ou morale, autorité publique, agence ou autre organisme qui utilise un système d'IA sous sa responsabilité, sauf si l'utilisation est à des fins personnelles non professionnelles.
- Le fournisseur conçoit et met sur le marché l'IA
- Le déployeur utilise l'IA dans son activité
2. Pratiques interdites en matière d'IA:
Interdictions relatives aux systèmes d'IA présentant des risques inacceptables, à savoir, tous les systèmes d'IA considérés comme une menace évidente pour la sécurité, la subsistance et les droits des personnes. (voir point 3.A).
2 août 2025
1. Obligations incombant aux fournisseurs de modèles d'IA à usage général:
L'article 3(44) de l'AI Act définit un système d'IA à usage général (GPAI) comme : "un système d'intelligence artificielle pouvant être utilisé pour une grande diversité de tâches et dans de nombreux contextes, indépendamment de l'objectif spécifique pour lequel il a été conçu à l'origine."
Caractéristiques principales :
-
Il n'est pas limité à une seule finalité (comme conduire un bus ou détecter une panne).
-
Il peut être réutilisé, adapté ou affiné pour différentes applications.
-
Il est souvent à la base d'autres systèmes d'IA qui sont eux-mêmes intégrés dans des produits ou services.
Obligations: transparence, documentation, respect des droits d'auteur, déclaration à la Commission
Exemples: GPT, Gemini, Claude, etc.
Même si vous ne développez pas ces systèmes, leur intégration dans vos services peut vous concerner.
2. Désignation des autorités compétentes au sein de chaque Etat membres de l'UE
3. Entrée en vigueur des sanctions
Des sanctions entreront en vigueur, à l'exception de celles spécifiques aux modèles d'IA à usage général. D'ici là, il revient aux États membres de définir les sanctions nécessaires pour assurer le respect du règlement. Celles-ci devront être effectives, proportionnées et dissuasives.
Le règlement prévoit d'ores et déjà, pour l'utilisation de systèmes d'IA présentant un risque inacceptable, une amende administrative pouvant atteindre 35 millions d'euros ou, dans le cas d'une entreprise, jusqu'à 7 % du chiffre d'affaires annuel mondial réalisé l'année précédente — le montant le plus élevé étant retenu.
!! En tant qu'employeur, il est donc essentiel d'anticiper ces exigences dès maintenant.
2 août 2026
Entrée en vigueur et application générale du règlement
Plus d'infos sur: Calendrier de mise en œuvre de la loi européenne sur l'intelligence artificielle
2 août 2027
Entrée en vigueur des règles relatives aux systèmes d'IA à haut risque.
Plus d'infos sur: Calendrier de mise en œuvre de la loi européenne sur l'intelligence artificielle
Sources:
- Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l'intelligence artificielle et modifiant les règlements (CE) n° 300/2008, (UE) n° 167/2013, (UE) n° 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (règlement sur l'intelligence artificielle)
- Site web: La loi sur l'intelligence artificielle Explorer | EU Artificial Intelligence Act