1. Home
  2. Science Stories
  3. Wat ethische AI in onderzoek écht betekent
Leestijd: 7 min.
Delen

Wat ethische AI in onderzoek écht betekent

Nu AI-tools steeds vaker worden gebruikt bij studentopdrachten, wetenschappelijke publicaties en data-analyse, worstelen universiteiten wereldwijd met de vraag wat ‘ethisch gebruik’ precies inhoudt. Sommigen trekken een duidelijke grens bij het laten schrijven van teksten door tools als ChatGPT, anderen vragen vooral om transparantie en eerlijkheid.

Foto van Wisang
Wisang
Student gebruikt ChatGPT voor academisch werk, ethisch gebruik van AI

Volgens filosoof Maren Behrensen, universitair docent filosofie, blijven deze discussies vaak beperkt tot wat er op het scherm gebeurt. Voor Behrensen gaat ethische AI in onderzoek niet alleen over de vraag of AI gebruikt mag worden bij het schrijven van opdrachten. Het gaat ook over wie de servers draaiende houdt, wie de modellen traint en wie verantwoordelijkheid neemt als het misgaat.

De verborgen kosten

Een bredere blik op ethische AI maakt onvermijdelijk dat ook de materiële en menselijke kosten van AI in beeld komen. De servers die AI mogelijk maken, draaien niet op goede bedoelingen. Ze zijn afhankelijk van elektriciteit, koelwater en onderbetaalde menselijke arbeid, wat Behrensen omschrijft als “het soort menselijke kosten dat we vaak niet zien”. Elke klik, elke prompt en elke gegenereerde afbeelding steunt op infrastructuren waar de meeste gebruikers nauwelijks bij stilstaan. Grote datacentra verbruiken enorme hoeveelheden energie om AI-systemen draaiende en gekoeld te houden. Zoals Behrensen uitlegt, zijn de energiekosten van deze systemen enorm, terwijl ze zelden een rol spelen in gesprekken over AI-ethiek.

Daarnaast is er de menselijke kant. Duizenden mensen, vaak in landen als Kenia of de Filipijnen, worden betaald om afbeeldingen te labelen, schadelijke content te filteren en algoritmes bij te sturen, vaak tegen zeer lage lonen. In het beste geval is dit werk saai en repetitief, zegt Behrensen. In het slechtste geval worden mensen blootgesteld aan extreem schokkend materiaal, en verlaten sommigen het werk met PTSS als gevolg van wat ze hebben moeten zien. Voor Behrensen maken deze vormen van arbeid en energiegebruik deel uit van de ethische voetafdruk van elke door AI gegenereerde zin, of die nu in een studentenessay staat of in een wetenschappelijk artikel. Toch blijven deze kosten meestal buiten beeld in discussies over AI aan universiteiten, waar de focus vaak ligt op oppervlakkige vragen zoals: mag dit? Is dit plagiaat? Belangrijke vragen, erkent Behrensen, maar ze laten een groot deel van het verhaal onbesproken.

Ethische AI is meer dan plagiaat

Foto van Maren Behrensen
Maren Behrensen

Auteurschap en verantwoordelijkheid

De systemen achter AI bepalen ook wie verantwoordelijk wordt gehouden als er iets misgaat. De meeste wetenschappelijke tijdschriften en universiteiten zijn het erover eens dat AI niet als auteur kan worden vermeld en dat een korte toelichting over hoe en waarom AI is gebruikt voorlopig volstaat. Maar daarmee blijft een grotere vraag onbeantwoord: wie is verantwoordelijk als AI fouten maakt of schade veroorzaakt?

Op dit moment wordt verantwoordelijkheid vooral bij de gebruiker gelegd, zegt Behrensen. Van onderzoekers wordt verwacht dat zij hun AI-gebruik melden, fouten controleren en verantwoording afleggen, terwijl de mensen die deze systemen hebben ontwikkeld of getraind grotendeels buiten beeld blijven. Dat leidt tot een ongelijk speelveld. Studenten en wetenschappers worden aan strikte regels gehouden, terwijl ontwikkelaars gebrekkige of bevooroordeelde systemen kunnen uitbrengen zonder vergelijkbare controle. Als een tool verzonnen bronnen produceert of schadelijke uitkomsten genereert, zouden ook de makers verantwoordelijk moeten worden gehouden, stelt Behrensen, zeker wanneer echte mensen daar de gevolgen van ondervinden.

Behrensen wijst op recente rechtszaken rond AI-chatbots die gebruikers zouden hebben aangemoedigd tot zelfbeschadiging, en op deepfakecampagnes die het politieke debat vervormen. Slecht onderzoek heeft altijd bestaan, merkt Behrensen op. Wat nieuw is, is hoe makkelijk verantwoordelijkheid nu kan worden doorgeschoven. Fouten die vroeger aan een auteur werden toegeschreven, kunnen nu worden afgedaan als “de fout van de AI”, waardoor niemand nog echt aanspreekbaar is.

De mythe van neutrale data

Zelfs wanneer AI technisch gezien correct functioneert, zijn de uitkomsten volledig afhankelijk van de data waarmee het systeem is getraind. Dat roept een diepere ethische vraag op: kan een systeem dat is gebaseerd op menselijke geschiedenis ooit neutraal zijn? Zoals Behrensen het formuleert, gaat het om “het klassieke probleem van rommel erin, rommel eruit”.

Amazon kreeg hier zelf mee te maken toen het experimenteerde met AI voor personeelsselectie. Het systeem was getraind op historische wervingsdata die mannen bevoordeelden. Het gevolg was dat het algoritme cv’s van vrouwen structureel lager beoordeelde. Het project werd stopgezet, maar de les bleef: een systeem dat objectief bedoeld is, kan bestaande ongelijkheden juist versterken.

Vergelijkbare patronen zijn zichtbaar in voorspellende politietools. Deze systemen gebruiken historische misdaaddata om zogenoemde risicogebieden aan te wijzen. Omdat die data al sociale en raciale ongelijkheden weerspiegelen, versterken de algoritmes deze patronen vaak. Het verminderen van bias vraagt om menselijke inspanning en investeringen. Om AI minder bevooroordeeld te maken, moeten veel mensen gespecialiseerd werk verrichten op de data, zegt Behrensen. De vraag is of bedrijven die AI overal willen inzetten bereid zijn daarvoor te betalen. Zelfs dan betwijfelt Behrensen of volledige neutraliteit haalbaar is. Data is altijd slechts een momentopname van de werkelijkheid. Je kunt die evenwichtiger maken, maar er zijn grenzen aan hoe ver dat gaat. Voor onderzoekers betekent dit dat het gebruik van AI zonder inzicht in de trainingsdata het risico met zich meebrengt dat oude vooroordelen ongemerkt worden meegenomen in nieuw onderzoek.

Het grotere geheel

Uiteindelijk gaat ethisch gebruik van AI in onderzoek niet over het trekken van één duidelijke grens. Het gaat om het besef hoeveel ethische keuzes al zijn gemaakt voordat een laptop überhaupt wordt geopend, van energiegebruik en arbeidsomstandigheden tot dataselectie en verantwoordelijkheid. AI zal wetenschap niet vervangen, maar verandert wel wat we verstaan onder verantwoord wetenschappelijk handelen. Ethisch omgaan met AI betekent niet dat we deze tools volledig moeten afwijzen, maar ook niet dat we ze kritiekloos moeten omarmen. Zoals Behrensen benadrukt, zijn AI-systemen nooit neutraal. Ze draaien op energie, op menselijke arbeid en op data die is gevormd door echte geschiedenissen.

Verantwoord AI-gebruik vraagt daarom om bewustzijn en om de afweging wanneer AI daadwerkelijk waarde toevoegt, en wanneer het ons juist verder afbrengt van het denken dat onderzoek zou moeten stimuleren. De verantwoordelijkheid daarvoor ligt, voorlopig althans, nog altijd bij mensen.

Kom studeren aan de Universiteit Twente

Vond je dit een boeiend artikel? Dan vind je deze studie(s) misschien ook interessant.

Gerelateerde verhalen