AI in de werkpraktijk: 5 inzichten voor de cultuursector
Wat betekent AI voor onze dagelijkse werking? En wat kan de cultuursector leren van andere sectoren? Op de DEN Conferentie 2025 deelden drie experten hun ervaringen tijdens een panelgesprek. Dit zijn de vijf inzichten die blijven hangen.
Journalist en presentator Annic Van Damme modereerde het panelgesprek tijdens de DEN Conferentie 2025. Aan tafel zaten drie sprekers die elk een ander perspectief inbrachten:
- Anne Doeser (Rabobank) werkt aan de interne uitrol van Microsoft Copilot, dat beschikbaar is voor ruim 40.000 medewerkers. Ze gaf inzicht in wat werkt, wat wringt, en waarom aandacht voor ethiek cruciaal is.
- Geert Wissink (Hogeschool van Amsterdam, Amsterdam AI) verbindt onderzoek, onderwijs en beleid en bouwde mee aan een veilige, interne AI-omgeving waarbij alle data in Europa blijven.
- Rodger Werkhoven (AI-creative, voormalig creatief directeur bij OpenAI) onderzoekt de creatieve mogelijkheden van generatieve AI en waarschuwt tegelijk voor over-optimisme, datamisbruik en verlies van menselijk eigenaarschap.
Vijf inzichten uit het gesprek bieden houvast voor cultuurprofessionals die AI willen verkennen zonder hun waarden en eigenheid te verliezen. 👇
1. AI is geen Google: begrijp wat je tool doet
Veel mensen gebruiken ChatGPT alsof het een zoekmachine is: je stelt een vraag, je krijgt een antwoord. Maar dat is een fundamenteel misverstand. ChatGPT zoekt geen feiten op, maar voorspelt woorden op basis van patronen in taal. Wie dat niet beseft, loopt het risico de uitkomsten van AI blind te vertrouwen.
Geert Wissink waarschuwt: "Toen ChatGPT opkwam, zagen veel mensen het als een slimme zoekmachine. Maar het is een taalmodel, een woordvoorspeller. Begrijp je dat niet, dan gebruik je het verkeerd: je denkt een feit op te zoeken, maar krijgt een statistisch waarschijnlijk antwoord. Het is alsof je een hamer inzet als nijptang."
Voor culturele organisaties betekent dit:
- Begin klein en praktisch. Gebruik AI niet om beleidskeuzes of inhoudelijke beslissingen te nemen, maar om je werk efficiënter te maken. Laat ChatGPT bijvoorbeeld publieksfeedback structureren, vergadernotities samenvatten of een eerste ruwe tekstversie maken. En zorg altijd voor menselijke controle.
- Investeer in AI-geletterdheid. Begrijp wat het model wél en níét kan, zodat je niet blind vertrouwt op uitkomsten.
ChatGPT gebruiken als slimme zoekmachine is als een hamer inzetten als nijptang: het is er niet voor gemaakt.
2. Creativiteit blijft menselijk, AI helpt je op weg
AI vervangt creativiteit niet, maar versnelt je denkproces. Het kan je helpen om uit de startblokken te geraken, vooral in creatieve of conceptuele processen.
Anne Doeser vergeleek het treffend: "Ik vroeg 26 studenten waarvoor ze AI gebruiken. Hun antwoord: ‘Ken je dat plakbandrolletje waarvan je het begin niet vindt? Dát is AI voor ons. We zitten vol ideeën maar komen niet verder. AI helpt ons te starten. We nemen het resultaat nooit letterlijk over, maar het zet ons wel in beweging.’”
Een concreet voorbeeld? Vraag een generatief model om tien totaal verschillende seizoensprogramma’s samen te stellen, elk voor een andere doelgroep. Niet om klakkeloos te kopiëren, maar om nieuwe invalshoeken te ontdekken.
Kortweg: voor cultuurprofessionals kan AI een waardevolle partner zijn bij brainstorms, programmatie of publiekswerking. Laat ChatGPT alternatieve formats bedenken, test wat werkt en gebruik het om je eigen ideeën scherper te maken. Jij beslist nog altijd wat waardevol is, maar je hoeft het niet langer alleen te bedenken.
AI kan je helpen om uit de startblokken te geraken in creatieve of conceptuele processen. Vergelijk het met het begin van een plankbandrolletje: eens je het hebt gevonden, ben je vertrokken.
3. Zet autonomie, ethiek en veiligheid op #1
AI maakt ons werk efficiënter, maar roept ook ethische vragen op. Wie is verantwoordelijk als AI iets fout doet? En waar ligt de grens tussen ondersteuning en automatisering?
Rodger Werkhoven benadrukt dat AI geen autonome intelligentie bezit, maar patronen reproduceert op basis van trainingsdata. Het kan dus waardevol werk leveren, zolang mensen kritisch blijven nadenken en de controle behouden.
“Laat mensen de curerende rol houden. AI kan structureren, analyseren of inspireren, maar mag nooit zonder menselijke tussenkomst beslissingen nemen. De technologie is niet intelligent. Ze weet niet wat ze doet en doet alleen alsof.”
Zowel Rabobank als de Hogeschool van Amsterdam laten nieuwe AI-toepassingen eerst langs een ethische commissie gaan. Geert onderstreept hoe zij – als grote instelling – een eigen, afgeschermde AI-omgeving bouwden zodat alle data binnen Europa blijft. Zo’n oplossing is niet voor elke organisatie haalbaar, maar de vragen erachter zijn ook voor kleinere organisaties zinvol:
1. Waar wordt de data opgeslagen?
AI-tools bewaren jouw input vaak op servers buiten Europa. Die data kunnen worden gebruikt om het model verder te trainen.
Wat kun je doen?
- Vermijd tools die geen info geven over datagebruik of locatie.
- Kies bij voorkeur tools met Europese dataopslag of de mogelijkheid om lokaal te draaien (zoals open-source-modellen).
- Twijfel je? Zoek in de privacyverklaring naar termen als 'training data', 'Europe', 'cloud provider' of 'data deletion'.
2. Wie heeft toegang?
Niet alleen jij, maar ook ontwikkelaars en derde partijen kunnen toegang krijgen tot je data – vaak zonder dat je het weet.
Wat kun je doen?
- Gebruik tools waarbij je zelf accounts en gebruikers kunt beheren.
- Deel geen gevoelige informatie (bv. persoonsgegevens of nog niet gepubliceerde inhoud) in tools waarvan je de datastroom niet kent.
- Overweeg een intern document of een training waarin je je team leert wat wel en niet mag met AI.
3. Welke businessmodellen schuilen achter de tool?
Sommige tools zijn gratis, maar verdienen geld door jouw data te gebruiken of te verkopen. Andere werken met een betaalmodel zonder datagebruik.
Wat kun je doen?
- Kijk bij elke tool of het businessmodel gebaseerd is op abonnementen (veiliger) of data harvesting (risico).
- Vermijd ‘gratis’ tools die zeggen dat alle output ‘public domain’ is – zoals veel beeldgenerators.
- Beperk experimenten met deze tools tot veilige inhoud (bv. brainstorms of hypothetische scenario’s).
4. Blijft de mens eindverantwoordelijk?
Als AI fout zit, is er vaak niemand om op terug te vallen. Jij blijft aansprakelijk voor het eindresultaat.
Wat kun je doen?
- Spreek af dat er altijd een menselijke check gebeurt bij gegenereerde teksten of beelden.
- Gebruik AI alleen als ondersteuning, niet als eindbeslisser — zeker niet bij juryverslagen, projectselecties of publiekscommunicatie.
- Documenteer beslissingen waarbij AI een rol speelde, zodat je altijd transparantie hebt als er discussie komt.
Concreet aan de slag? Zo begin je als cultuurorganisatie:
1. Bespreek in team waarvoor AI wél of niét mag ingezet worden
Plan een intern overleg met deze vragen:
- Mogen we AI gebruiken om teksten te genereren voor het publiek?
- Mag AI helpen bij het selecteren van artiesten, projecten of subsidies?
- Willen we dat AI mee beslist, of enkel inspireert?
2. Weet welke tools je gebruikt
Stel een eenvoudige lijst op van AI-tools die binnen je organisatie gebruikt worden. Denk aan ChatGPT, Canva Magic, Dall·E … Noteer waarvoor je ze gebruikt (bv. een eerste draft schrijven, beeldideeën genereren). Dit geeft je zicht op de risico’s.
3. Gebruik tools die transparant zijn over data
Vermijd tools die niet duidelijk zijn over opslag en hergebruik van gegevens.
Kies bij voorkeur voor:
- Tools met opslag in Europa
- Tools zonder hergebruik van jouw input
- Tools waarbij je zelf data kunt verwijderen
4. Leg afspraken vast
Noteer je keuzes in een intern AI-beleid of een korte gedragscode. Eén A4’tje volstaat. Belangrijk is: wie is verantwoordelijk? Wie keurt AI-output goed? Wanneer moet er menselijke controle zijn?
5. Start met een 'AI-toepassingen-check'
Elke keer je overweegt een nieuwe tool of functie te gebruiken, beantwoord je vier vragen:
- Welke data geef ik in?
- Waar worden die opgeslagen?
- Wie heeft toegang tot het resultaat?
- Wordt de output gebruikt om het model verder te trainen?
Zelfs met beperkte tijd of kennis kun je op deze manier bewuste keuzes maken. En dat is de essentie: de controle behouden.
AI kan structureren, analyseren of inspireren, maar mag nooit zonder menselijke tussenkomst beslissingen nemen. De technologie is niet intelligent. Ze weet niet wat ze doet, ze doet alleen alsof.
4. Sta kritisch tegenover tools, data en copyrights
Niet elke AI-tool is even veilig. Generatieve tools zoals Midjourney verwerken gebruikersdata en kunnen elementen recyclen in andere creaties. Dat is niet alleen een privacyrisico, maar ook een auteursrechtelijke nachtmerrie.
Rodger Werkhoven gaf een krachtig hypothetisch voorbeeld: "Stel: je maakt voor een nieuwe Volkswagen-campagne visuals in Midjourney, dan kunnen die beelden nog voor je lancering een paar maanden later opduiken in een videogame. Midjourney hergebruikt immers alles wat je uploadt. Wat uit zo’n model komt, is van niemand – tenzij je het zélf wezenlijk aanpast. Alles wat uit een machine komt valt niet onder het auteursrecht."
Voor cultuurorganisaties is dit essentieel: weet wat je doet met beeld, tekst en data. Vraag je af: waar worden je gegevens opgeslagen? Wordt je werk misschien hergebruikt zonder toestemming? Kies waar mogelijk voor veilige alternatieven zoals open-source-modellen die lokaal draaien. En sta kritisch tegenover externe bureaus die AI gebruiken voor jouw visuele of tekstuele content.
Actiepunten voor de cultuursector:
- Gebruik tools met duidelijke copyrightregels. Tools als Adobe Firefly geven bepaalde gebruiksrechten. Lees altijd de voorwaarden.
- Gebruik waar mogelijk lokaal gehoste open-source-modellen zoals Stable Diffusion. Dit genAI-model kun je lokaal installeren op een eigen computer of server. Zo heb je meer controle over data, output en privacy.
- Gebruik platformen zoals Krea.ai, die verschillende generatieve modellen combineren en meer beheersing bieden dan volledig publieke platforms – al blijven ze draaien in een externe cloudomgeving.
- Vraag leveranciers expliciet naar hun AI-gebruik. Laat in contracten opnemen of AI werd gebruikt en wie de rechten op de output bezit.
- Vermijd gevoelige data in AI-tools. Stop geen persoonsgegevens, interne rapporten of kunstenaarsdossiers in publieke tools.
5. Begin klein, experimenteer veilig en leer samen
AI is een leerproces. Creëer veilige experimentruimtes – ook in kleine organisaties. Maak duidelijk dat fouten maken mag, zolang je ervan leert.
Een paar ideeën en tips uit het panel:
Feedback-analyse
- Open tekstreacties (na een voorstelling, tentoonstelling …) leveren waardevolle inzichten op, maar zijn vaak ongestructureerd. Laat een taalmodel de opmerkingen groeperen tot een top drie van verbeterpunten.
Toolbox voor starters
- ChatGPT als sparringspartner: vraag naar trends voor de komende vijf jaar, buig het antwoord om naar je context en test de speechfunctie om ideeën luidop te verkennen.
- Krea.ai als beeldgenerator op basis van open modellen, met meer controle over je output dan bij volledig publieke tools zoals Midjourney.
- Deep Research (experimentele Open AI-modus) voor wie dieper wil duiken in data-analyses.
- Whisper (spraak-naar-tekst) voor razendsnel transcriberen.
Organisatorisch
- Wijs een AI-ambassadeur aan, deel prompts en resultaten in teammeetings en documenteer wat werkt – en wat niet.
- Werk samen met hogescholen of universiteiten om een veilige sandbox op te zetten waar studenten en medewerkers samen experimenteren. Dat zijn een afgebakende testomgevingen waarin je nieuwe technologieën zoals AI-tools kunt uitproberen zonder risico voor je echte systemen, data of gebruikers. Een paar voorbeelden:
- Een bibliotheek test een chatbot met fictieve bezoekersvragen vóór die online gaat.
- Een museum probeert AI-gegenereerde tentoonstellingsformats uit op een aparte server.
- Een cultuurhuis laat studenten experimenteren met beeldgenerators zonder dat die toegang krijgen tot interne of auteursrechtelijk beschermde data.
Tot slot
Technologie versnelt onze processen, maar onze waarden bepalen het tempo. Door bewust te experimenteren, kritisch te kiezen en te investeren in AI-geletterdheid kan de cultuursector digitale kansen grijpen zonder haar menselijke kern te verliezen.
Je verder verdiepen in dit thema?
AI-opleiding voor bibliotheekmedewerkers
AI is overal, en bibliotheken spelen een sleutelrol in hoe mensen ermee leren omgaan. Daarom lanceren Hub-C en VAIA gratis lessenreeksen over werken met AI in verschillende bibliotheken in Vlaanderen.
DigiCurious gemist? Dit zijn de key takeaways van ‘Weg van Big Tech?’
Tijdens ons inspiratie-event DigiCurious liet keynote speaker Pieter Duysburgh (Kenniscentrum Data & Maatschappij) ons kritisch stilstaan bij de vraag: kunnen we weg van Big Tech? Ontdek de belangrijkste inzichten.
Wel of niet weg bij big tech?
Ontdek hoe publieke waarden, privacy en online keuzevrijheid een rol spelen bij de keuze tussen big tech-platformen en ethische alternatieven.