Artificial Intelligence Verordening (AI)

23-07-2025

De in 2024 aangenomen Europese verordening inzake kunstmatige intelligentie – beter bekend als de AI Act – vormt een mijlpaal in de regulering van AI-technologieën binnen de Europese Unie. Door een geharmoniseerd juridisch kader in te voeren op basis van een risicogebaseerde benadering, beoogt de verordening de ontwikkeling van AI te waarborgen op een manier die fundamentele rechten, veiligheid en transparantie respecteert. Aangezien de toepassing van de regels gefaseerd verloopt tussen 2025 en 2027, is het voor betrokken actoren – ook in de personenvervoersector – van cruciaal belang om de uitgangspunten, verplichtingen en deadlines goed te begrijpen.

1. Algemeen doel van de AI Act

Het voornaamste doel van de Act is ervoor te zorgen dat AI-systemen die op de interne markt worden gebracht of binnen de EU worden gebruikt veilig, grondrechtenrespecterend en in overeenstemming met Europese waarden zijn, terwijl innovatie wordt gestimuleerd.

Gebaseerd op het voorzorgsprincipe en een benadering van risicobeheer, introduceert de verordening een risicoclassificatie van AI-systemen en legt zij specifieke verplichtingen op aan economische actoren (ontwikkelaars, leveranciers, importeurs, gebruikers).

2. Toepassingsgebied van de verordening

De verordening is van toepassing op elke entiteit (publiek of privaat) die:

  • een AI-systeem op de markt brengt, in bedrijf stelt of gebruikt binnen de Europese Unie,

  • ongeacht waar de leverancier of gebruiker is gevestigd,

  • zolang de effecten van het systeem zich binnen de EU manifesteren.

3. Typologie van AI-systemen: risico-gebaseerde benadering

De kern van de regelgeving is een classificatie in vier risiconiveaus

a) Onaanvaardbaar risico (verboden)

Bepaalde toepassingen zijn strikt verboden omdat ze in strijd zijn met fundamentele rechten:

  • sociale credit scoring systemen,

  • grootschalige cognitieve of gedragsmanipulatie,

  • realtime biometrische herkenning op afstand in openbare ruimtes (behalve strikt toegelaten uitzonderingen).

Sectorvoorbeeld: een systeem in bussen dat realtime passagiersemoties registreert om automatisch advertenties aan te passen, kan als onaanvaardbare gedragsmanipulatie worden beschouwd onder artikel 5.

b) Hoogrisk (hoog risico) (streng gereguleerd)

Hoogrisk‑systemen zijn toegestaan mits naleving van strikte vereisten op het gebied van veiligheid, transparantie, documentatie, data governance en menselijke controle. Dit omvat:

  • systemen gebruikt voor verkeersinfrastructuur,

  • systemen die de veiligheid van personen significant beïnvloeden.

Sectorvoorbeelden:

  • een AI-systeem dat semi-autonoom of autonoom rijden van een autocar ondersteunt,

  • een geautomatiseerd wervingssysteem voor chauffeurs van bussen.

Dergelijke systemen vereisen een conformiteitsbeoordeling vóór marktintroductie én registratie in de Europese databank van hoogrisico‑systemen.

c) Beperkt risico (transparantieverplichtingen)

Sommige systemen met een laag risico maar impact op gebruikers (zoals chatbots of spraakinterfaces) moeten expliciet vermelden dat gebruikers communiceren met AI.

Sectorvoorbeeld:

  • een spraakassistent aan boord die passagiers beantwoordt,

  • een slimme boekingsapp met AI‑ondersteunde chatfunctie.

d) Minimaal of geen risico

Systeem met puur functioneel of niet-gevoelig gebruik (zoals standaard GPS-navigatie) vallen buiten de specifieke verplichtingen. Vrijwillige gedragscodes worden aangemoedigd.

4. Tijdschema voor inwerking

De verordening is van toepassing vanaf 2 augustus 2026, maar bepaalde bepalingen treden vóór of na deze datum in werking : 

2 februari 2025 

1. Verplichting inzake AI-beheersing :

Leveranciers en gebruikers van AI-systemen nemen maatregelen om, voor zover mogelijk, een voldoende niveau van kennis over AI te waarborgen bij hun personeel en bij andere personen die namens hen verantwoordelijk zijn voor het functioneren en gebruik van deze systemen.

De term "gebruiker" ("deployer") verwijst naar elke natuurlijke of rechtspersoon, overheidsinstantie, agentschap of andere organisatie die een AI-systeem gebruikt onder haar verantwoordelijkheid, tenzij het gebruik plaatsvindt voor persoonlijke en niet-professionele doeleinden.

De aanbieder ("leverancier") ontwerpt en brengt het AI-systeem op de markt.
De gebruiker ("deployer") past het AI-systeem toe in het kader van zijn of haar activiteiten.

2. Verboden AI-praktijken :

Verboden met betrekking tot AI-systemen die een onaanvaardbaar risico vormen, namelijk alle AI-systemen die een duidelijk gevaar inhouden voor de veiligheid, het levensonderhoud of de rechten van personen. (Zie punt 3,A).

2 augustus 2025 

1. Verplichtingen voor aanbieders van generieke AI-modellen (General Purpose AI – GPAI):

Artikel 3(44) van de AI-verordening definieert een GPAI-systeem als:
"een kunstmatig intelligentiesysteem dat voor een brede waaier aan taken en in verschillende contexten kan worden gebruikt, ongeacht het specifieke doel waarvoor het oorspronkelijk werd ontworpen."

Belangrijkste kenmerken:

  • Het is niet beperkt tot één specifiek doel (zoals het besturen van een bus of het detecteren van een defect).

  • Het kan worden hergebruikt, aangepast of verfijnd voor verschillende toepassingen.

  • Het vormt vaak de basis van andere AI-systemen die in producten of diensten worden geïntegreerd.

Verplichtingen: transparantie, documentatie, naleving van auteursrechten, kennisgeving aan de Commissie.

Voorbeelden: GPT, Gemini, Claude, enz.

Zelfs als u deze systemen niet zelf ontwikkelt, kan hun integratie in uw diensten toch gevolgen hebben voor uw onderneming.

2. Aanwijzing van bevoegde autoriteiten binnen elke EU-lidstaat.

3. Inwerkingtreding van sancties:

Sancties worden van kracht, met uitzondering van die welke specifiek gelden voor GPAI-modellen.
Tegen die tijd moeten de lidstaten de nodige sancties vaststellen om de naleving van de verordening te garanderen.
Deze sancties moeten doeltreffend, evenredig en afschrikkend zijn.

De verordening voorziet nu al in een administratieve boete voor het gebruik van AI-systemen die een onaanvaardbaar risico vormen, tot 35 miljoen euro of, voor ondernemingen, tot 7 % van de wereldwijde jaaromzet van het voorgaande boekjaar — waarbij het hoogste bedrag geldt.

‼️ Als werkgever is het dus essentieel om nu al met deze verplichtingen rekening te houden.

2 augustus 2026 

Inwerkingtreding en algemene toepassing van de verordening.

Meer info: Implementatiekalender van de Europese AI-wet.

2 augustus 2027 

Inwerkingtreding van de regels met betrekking tot AI-systemen met hoog risico.

Meer info: Implementatiekalender van de Europese AI-wet.



Bronnen:

- VERORDENING (EU) 2024/1689 van het europees Parlement en Raad van 13 juni 2024 tot vaststelling van geharmoniseerde regels betreffende artificiële intelligentie en tot wijziging van de Verordeningen (EG) nr. 300/2008, (EU) nr. 167/2013, (EU) nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 en (EU) 2019/2144, en de Richtlijnen 2014/90/EU, (EU) 2016/797 en (EU) 2020/1828 (verordening artificiële intelligentie).

- Website: The AI Act Explorer | EU Artificial Intelligence Act