Home » Wat is hoog risico AI?

Wat is hoog risico AI?

Hoogrisico-AI zijn kunstmatige-intelligentiesystemen die door de EU AI Act worden geclassificeerd als potentieel schadelijk voor fundamentele rechten, veiligheid of democratische waarden. Deze systemen vallen onder strenge regelgeving omdat ze een significante impact kunnen hebben op belangrijke levensbeslissingen. Organisaties die deze systemen gebruiken, moeten voldoen aan uitgebreide compliance-eisen en transparantievereisten.

Wat wordt er precies bedoeld met hoogrisico-AI volgens de EU-wetgeving?

De EU AI Act definieert hoogrisico-AI-systemen als toepassingen die aanzienlijke risico’s vormen voor de gezondheid, veiligheid of fundamentele rechten van personen. Deze classificatie is gebaseerd op de potentiële impact van het systeem op cruciale levensbeslissingen en maatschappelijke processen.

De wetgeving hanteert twee hoofdcriteria voor deze classificatie. Ten eerste moet het AI-systeem worden gebruikt in een sector die als kritiek wordt beschouwd, zoals gezondheidszorg, onderwijs, werkgelegenheid of rechtspraak. Ten tweede moet het systeem een functie vervullen die directe invloed heeft op individuen of groepen mensen.

Deze classificatie is belangrijk omdat organisaties die hoogrisico-AI-systemen ontwikkelen of gebruiken, onderworpen zijn aan strenge compliance-eisen. Dit betekent uitgebreide documentatie, risicobeheersing, transparantie en regelmatige audits. Niet-naleving kan leiden tot boetes tot 7% van de wereldwijde jaaromzet.

Voor bedrijven in de zorg en het onderwijs is deze wetgeving bijzonder relevant, aangezien veel AI-toepassingen in deze sectoren automatisch als hoog risico worden geclassificeerd vanwege hun impact op kwetsbare groepen.

Welke AI-systemen vallen onder de categorie hoogrisico-AI?

De EU AI Act specificeert acht hoofdcategorieën van hoogrisico-AI-systemen, variërend van HR-automatisering tot medische diagnostiek. Deze systemen worden gekenmerkt door hun directe invloed op belangrijke levensbeslissingen van individuen.

In de werkgelegenheidssfeer vallen alle AI-systemen die worden gebruikt voor wervingsprocessen, promotiebesluiten, prestatiebeoordelingen en ontslag onder de hoogrisicocategorie. Dit omvat sollicitatiescreening, cv-analyse en werknemersmonitoring.

Voor de gezondheidszorg gelden AI-systemen voor medische diagnostiek, behandelingsadvies en patiëntmonitoring als hoog risico. Dit betreft bijvoorbeeld AI die röntgenfoto’s analyseert, medicatiedoseringen bepaalt of gezondheidsrisico’s inschat.

In het onderwijs zijn AI-systemen voor studentevaluatie, toelatingsbeslissingen en leerroutebepaling geclassificeerd als hoog risico. Denk aan automatische tentamencorrectie, studiekeuzeadvies of prestatieanalyses.

Andere categorieën omvatten kritieke infrastructuur (verkeersmanagement, energiedistributie), rechtspraak (risicobeoordeling van verdachten), kredietverlening en biometrische identificatie. Ook AI-systemen voor grenscontrole en sociale uitkeringen vallen hieronder.

Wat zijn de belangrijkste verplichtingen voor bedrijven met hoogrisico-AI-systemen?

Bedrijven met hoogrisico-AI-systemen moeten voldoen aan uitgebreide compliance-eisen die transparantie, veiligheid en menselijke controle waarborgen. Deze verplichtingen zijn ontworpen om risico’s te minimaliseren en fundamentele rechten te beschermen.

De documentatieverplichting vormt de basis van compliance. Organisaties moeten gedetailleerde technische documentatie bijhouden over het AI-systeem, inclusief ontwerpkeuzes, trainingsdata, algoritmen en risicobeoordeling. Deze documentatie moet toegankelijk zijn voor toezichthouders.

Een robuust risicobeheersysteem is verplicht gedurende de hele levenscyclus van het AI-systeem. Dit omvat het identificeren van mogelijke risico’s, het implementeren van mitigatiemaatregelen en het monitoren van prestaties. Regelmatige evaluaties en updates zijn essentieel.

Transparantievereisten betekenen dat gebruikers duidelijk geïnformeerd moeten worden over de werking van het AI-systeem. Dit omvat informatie over het doel, de beperkingen, nauwkeurigheidsniveaus en mogelijke bias. Gebruikers moeten begrijpen wanneer ze met AI interacteren.

Menselijke controle moet altijd gewaarborgd blijven. Er moet een gekwalificeerde persoon zijn die het AI-systeem kan overrulen of stopzetten. Ook moeten organisaties procedures hebben voor klachtenbehandeling en het corrigeren van fouten.

Voor organisaties die AI-oplossingen implementeren, is AI-geletterdheid cruciaal. Medewerkers moeten begrijpen hoe AI-systemen werken, welke risico’s er zijn en hoe ze verantwoord kunnen worden gebruikt.

Hoe kunnen bedrijven bepalen of hun AI-systemen als hoog risico gelden?

Het bepalen of een AI-systeem als hoog risico geldt, vereist een systematische evaluatie van zowel de toepassing als de potentiële impact. Deze beoordeling vormt de basis voor het vaststellen van de juiste compliance-strategie.

Begin met het identificeren van de sector en toepassing waarin het AI-systeem wordt gebruikt. Controleer of deze valt onder de acht gespecificeerde categorieën in de EU AI Act. Let hierbij op de specifieke functie die het systeem vervult, niet alleen de technologie zelf.

Voer vervolgens een impactassessment uit dat de potentiële gevolgen voor individuen en groepen in kaart brengt. Analyseer of het systeem beslissingen neemt of beïnvloedt die significant zijn voor iemands leven, zoals toegang tot diensten, werkgelegenheid, onderwijs of gezondheidszorg.

Evalueer de mate van automatisering in het besluitvormingsproces. Systemen die volledig geautomatiseerde beslissingen nemen, hebben een grotere kans om als hoog risico te worden geclassificeerd dan systemen die alleen ondersteuning bieden.

Documenteer alle bevindingen in een uitgebreide risicobeoordeling. Deze moet regelmatig worden geüpdatet wanneer het systeem wijzigt of nieuwe toepassingen krijgt. Bij twijfel is het raadzaam juridisch advies in te winnen of contact op te nemen met de relevante toezichthouder.

Organisaties die AI-systemen gebruiken in zorg, onderwijs of HR-processen moeten extra waakzaam zijn, omdat deze sectoren vaak automatisch onder de hoogrisicocategorie vallen. Investeren in AI-geletterdheid helpt teams om deze beoordelingen correct uit te voeren en compliance te waarborgen.

De EU AI Act brengt belangrijke veranderingen voor organisaties die AI-systemen gebruiken. Door proactief te handelen en de juiste expertise in huis te halen, kunnen bedrijven voldoen aan de regelgeving terwijl ze blijven profiteren van de voordelen van AI-technologie. Wij ondersteunen organisaties bij het navigeren door deze complexe wetgeving en het implementeren van compliant AI-oplossingen die daadwerkelijk waarde toevoegen.

Meer nieuws?

Schrijf je in voor onze nieuwsbrief!

Meer nieuws?

Schrijf je in voor onze nieuwsbrief!

Laat je inspireren

We hebben nog wat andere suggesties voor je om te lezen:

  • Salarisadministratie: zelf doen of uitbesteden?

  • 5 dingen die je als AFAS-gebruiker moet weten over AI

  • Samen vooruit: nieuwe Work>flows bij KWEEKERS