Ga verder naar de inhoud
Ga verder naar de inhoud

Alles wat je vandaag moet weten over de AI Act

AI is aan een razendsnelle opmars bezig. Alles lijkt mogelijk. En tot voor kort leek alles ook te mogen. Met de Europese AI Act komt daar verandering in. Die is sinds 2 februari 2025 van kracht, en op 2 augustus start een nieuwe fase met strengere regels voor ‘general purpose AI’-systemen zoals ChatGPT en DALL·E. Wat betekent dat voor jouw cultuurorganisatie? En hoe bereid je je voor?

Even opfrissen: wat is de AI Act?

De AI Act is de eerste Europese wet die regels oplegt over het gebruik van artificiële intelligentie. Het doel? De veiligheid en fundamentele rechten van Europese burgers beschermen. Europa kiest daarbij voor een aanpak op basis van risiconiveaus: hoe hoger het risico van een AI-systeem, hoe strenger de eisen.

De wet maakt een onderscheid tussen vier categorieën:

  • Onaanvaardbaar risico: systemen die een duidelijke bedreiging vormen voor de veiligheid, rechten en vrijheden van mensen. Denk aan sociale scoring (waarbij mensen worden beoordeeld op hun gedrag en daar voordelen of beperkingen aan gekoppeld worden) of subliminale technieken (die onbewust gedrag proberen te sturen en manipuleren, bijvoorbeeld via verborgen boodschappen). Deze AI-systemen zijn wettelijk verboden. 
  • Hoog risico: systemen met een grote impact op rechten en vrijheden (zoals gezichtsherkenning of algoritmes voor sollicitaties). Hiervoor gelden strenge regels, zoals uitgebreide documentatie, transparantie en toezicht.
  • Beperkt risico: toepassingen zoals chatbots of emotieherkenning. Hier is vooral transparantie vereist, zodat gebruikers weten dat ze met AI te maken hebben. 
  • Minimaal of geen risico: systemen die geen significante risico’s vormen voor veiligheid of fundamentele rechten en die daarom niet gereguleerd zijn. Denk aan spamfilters of aanbevelingen op websites. 

Naast deze risiconiveaus is er een aparte categorie: General Purpose AI (GPAI). Voor die categorie veranderen de regels vanaf augustus.

Europa kiest met de AI Act voor een aanpak op basis van risiconiveaus: hoe hoger het risico van een AI-systeem, hoe strenger de eisen.

GPAI: wat is het en wat verandert er op 2 augustus 2025?

GPAI verwijst naar AI-systemen die niet voor één specifiek doel ontwikkeld zijn, maar breed inzetbaar zijn. Voorbeelden zijn:

  • Taalmodellen zoals GPT-4 (waar bijvoorbeeld ChatGPT op is gebouwd)
  • Beeldgeneratoren zoals DALL·E en Midjourney
  • Vertaaltools zoals Google Translate en DeepL
  • Programmeerhulpen zoals Copilot en Cursos

Deze tools zijn intussen niet meer weg te denken uit de cultuursector. Ze worden gebruikt voor publiekscommunicatie, planning, programmatie, inspiratie en zelfs creatie. 

Juist omdat GPAI zo veelzijdig is, zijn de risico’s moeilijker te overzien. Daarom gelden vanaf 2 augustus 2025 extra transparantieregels voor de aanbieders van deze modellen. Vanaf die datum moeten zij:

  • Transparant zijn over de gebruikte trainingsdata
  • Technische documentatie beschikbaar stellen
  • Een beleid opstellen dat in lijn is met Europese auteurswetgeving (zoals het aanbieden van opt-outmogelijkheden voor makers)

Voor jou als gebruiker verandert er vooral dit: pas je een bestaand AI-model aan, combineer je meerdere modellen of ontwikkel je er zelf één, dan val je mogelijk onder deze strengere regels. Denk bijvoorbeeld aan een AI-gestuurde installatie of een interactieve productie op maat. In zulke gevallen raden we je aan om professioneel advies in te winnen bij een AI-expert.

Vanaf 2 augustus 2025 gelden extra transparantieregels voor de aanbieders van zogeheten 'General Purpose AI' die breed inzetbaar zijn, zoals ChatGPT en DeepL.

Wat moet jij als cultuurorganisatie weten?

Gebruik je bestaande AI-tools zoals ChatGPT of DALL·E? Dan hoef je je voorlopig geen zorgen te maken over technische documentatie of dataregistratie – die verplichtingen gelden vooral voor de ontwikkelaars van deze systemen.

Wél belangrijk: hoe je AI toepast, bepaalt onder welk risiconiveau je valt – en dus welke regels van toepassing zijn.

Voorbeelden:

  • Een chatbot op je website = laag risico. Je moet duidelijk maken aan bezoekers dat ze met AI praten en niet met een natuurlijk persoon.
  • Een sollicitatie-algoritme dat kandidaten beoordeelt = hoog risico omwille van de kans op discriminiatie en uitsluiting. Menselijk toezicht is vereist.  
  • Een gepersonaliseerde rondleiding via AI = meestal laag risico, maar zorg voor een disclaimer en documenteer het gebruik.

Uitzondering: AI-gegenereerde teksten

Publiceer je AI-gegenereerde teksten? Dan moet je bekendmaken dat de tekst kunstmatig gegenereerd is. Bewerk of controleer je de tekst voor publicatie? Dan geldt deze verplichting niet.

Uitzondering: deepfakes

Een deepfake-video in een tentoonstelling valt niet onder een specifieke risicocategorie zoals ‘hoog risico’ of ‘laag risico’ in de AI Act, maar wordt afzonderlijk gereguleerd via de transparantieverplichting voor synthetische content. Je bent met andere woorden verplicht om duidelijk te maken dat het om AI-content gaat. 

Zo bereid je je nu al voor

Ook al ben je geen ontwikkelaar, als gebruiker van AI heb je wel een verantwoordelijkheid. Enkele concrete acties die je nu al kunt nemen:

✅ Breng in kaart welke AI-tools je gebruikt en bepaal het risiconiveau

Informeer je bezoekers of gebruikers wanneer ze in contact komen met AI en hoe hun gegevens gebruikt worden.  

Implementeer beveiligingsmaatregelen om de gegevens van gebruikers te beschermen. Bijvoorbeeld door regelmatig je systemen te updaten en risicoanalyses uit te voeren. Een goed startpunt: de cyberchecklist van DEN

✅ Voer een gesprek over ethische standpunten binnen de organisatie en bepaal hoe je daarmee omgaat. Ontwikkel richtlijnen of een gedragscode om duidelijke grenzen aan te geven voor medewerkers. Hulp nodig? Kenniscentrum Data & Maatschappij biedt verschillende tools aan. 

✅ AI-geletterdheid onder medewerkers is essentieel om er verantwoord en kritisch mee om te gaan. De AI-vaardigheden van je medewerkers vergroten? Schrijf je in voor onze lessenreeks ‘Van AI tot Z’ (speciaal ontwikkeld voor bibmedewerkers). 

Volg de evoluties op: de AI Act wordt stapsgewijs uitgerold. In augustus 2026 start het toezicht op AI-systemen met een hoog risico. In augustus 2027 is de AI Act volledig van kracht. 

Tot slot

De AI Act hoeft geen rem te zijn op experiment of creativiteit. Integendeel: cultuurorganisaties kunnen net het voortouw nemen in het verantwoord en transparant gebruik van AI. Door nu al in te zetten op duidelijkheid, ethiek en bewustwording, maak je jouw werking toekomstbestendig.

Lees meer via DEN

In bovenstaand artikel vind je een beknopte samenvatting van de AI Act en de belangrijkste implicaties voor de cultuursector, gebaseerd op twee publicaties van DEN. Wil je meer weten over de AI Act? 

Je verder verdiepen in dit thema?

AI-opleiding voor bi­bli­o­theek­me­de­wer­kers

AI is overal, en bibliotheken spelen een sleutelrol in hoe mensen ermee leren omgaan. Daarom lanceren Hub-C en VAIA gratis lessenreeksen over werken met AI in verschillende bibliotheken in Vlaanderen.

AI in de werk­prak­tijk: 5 inzichten voor de cul­tuur­sec­tor

Wat betekent AI voor onze dagelijkse werking? En wat kan de cultuursector leren van andere sectoren? Op de DEN Conferentie 2025 deelden drie experten hun ervaringen tijdens een panelgesprek. Dit zijn de vijf inzichten die blijven hangen.

Razor Reel AI-dag

Benieuwd naar de toekomst van storytelling, auteurschap en technologie? Schrijf je gratis in voor de AI-dag van Razor Reel en Hub-C.

ma
06.10
di
15.12
Meer info
di
28.10
Event

Razor Reel AI-dag

09:30 - 18:15
Fysiek
Razor Reel Flanders Film Festival & Hub-C
Meer info