Nieuws

29-07-2024 08:36

De inzet van generatieve AI-tools in het bedrijfsleven



"We moeten iets met AI." Sinds de lancering van ChatGPT in 2022 is dit een veelgehoorde uitspraak van ondernemers. Aan het gebruik van generatieve AI-tools zitten zeker grote voordelen, maar voor de maatschappelijke kosten is nog niet veel aandacht. Volgens auteur en keynote-spreker Aaron Mirck zou elke ondernemer een wat meer kritische houding ten opzichte van AI moeten innemen.


AI als stagiair

Persberichten schrijven, personeelsplanningen maken, vacatureteksten bedenken of een pakkend bericht voor je social media kanalen opstellen; de manier waarop je generatieve AI-tools zoals ChatGPT, Gemini, Microsoft Copilot en Midjourney kunt toepassen lijkt eindeloos, net als de tijd die ze je besparen. "De belofte van dit soort tools is dat het ons productiever maakt", vertelt Aaron Mirck, auteur van het boek 'AI, voorbij de hype'. "Daardoor zouden we zo'n tien tot twintig procent van onze tijd op een andere manier in kunnen zetten. Een vaak gemaakte vergelijking is die met een stagiair. Hij of zij neemt werk uit handen waar je niet aan toekomt of wat je niet interessant vindt." Die vergelijking gaat eveneens op wat betreft de output van generatieve AI-tools. "Qua kennisniveau zijn de AI-tools afhankelijk van de data op internet waarmee getraind is. Internet staat echter vol met meningen die eerder het niveau van de gemiddelde internetgebruiker hebben, dan die van een expert. Net als het werk van een stagiair is de output van een AI-tool dus niet foutloos."

Controleren

Het feit dat er op het resultaat van AI-tools soms nog wel wat valt aan te merken, is één van de redenen waarom ondernemers er verstandig aan doen om een wat meer kritische houding tegenover het gebruik hiervan in te nemen. "Een AI-tool scant het internet af voor infor-matie. Het maakt daarbij geen onderscheid in de herkomst van de informatie en door wie het is geschreven. Dat betekent dat nepnieuws als bron kan worden gebruikt. Daarmee ontstaat het risico dat je output foute informatie bevat. Ga je die delen, dan ga je de mist in. Daarom moet je altijd de resultaten controleren." In zijn boek laat Aaron Mirck diverse experts aan het woord die met klem afraden om AI-tools te gebruiken voor bijvoorbeeld het controleren van informatie of het opstellen van juridische documenten en contracten.

Inclusief

Waar je eveneens voor moet waken, is dat de output van generatieve AI-tools afhankelijk is van de input, waardoor bestaande vooroordelen worden versterkt. Je teksten kunnen daardoor niet inclusief van toon zijn en een beperkte doelgroep aanspreken. In het ergste geval kunnen de teksten zelfs racistisch zijn. "Wanneer een AI-tool vacatures voor je bedrijf gaat selecteren, kunnen daar al snel vooroordelen in sluipen. Want als jouw werknemersbestand bijvoorbeeld voornamelijk bestaat uit witte mannen, dan is de tool op basis daarvan getraind en is de kans dus groot dat je die categorie mensen gaat aantrekken. Overigens zijn er wel alternatieven te vinden om dit te voorkomen, zoals Missjourney (een alternatief voor Midjourney, red) voor het genereren van afbeeldingen."

Gegevensbescherming

Een ander punt van aandacht dat bij het gebruik van AI-tools om de hoek komt kijken, is gegevensbescherming. "De veelal gratis AI-tools zijn afhankelijk van data om het systeem te trainen. Als je niet betaalt, is het logisch dat jouw data veel meer gebruikt wordt, want wat heeft zo'n bedrijf anders aan jou? Van ChatGPT is bekend dat de tool de input en de output gebruikt als trainingsmateriaal. Ook houdt de tool bij wat je typt, waar je bent en welke websites je bezoekt. Die informatie verkoopt het aan adverteerders; eigenlijk net zoals Facebook en Google bijhouden wat we online doen en die informatie aan andere bedrijven verkopen."

Datalek

Het gebruik van jouw data door generatieve AI-tools kan in het ergste geval zelfs voor een datalek zorgen. Aaron Mirck noemt in zijn boek een voorbeeld van een afdeling van Samsung in Zuid-Korea, die onbedoeld gevoelige informatie deelde met de openbare tool van ChatGPT. Hierdoor kunnen gegevens van klanten en leveranciers op straat komen te liggen, met boetes en imagoschade als gevolg. Ook bestaat het risico dat intellectueel eigendom via de tool openbaar wordt gemaakt. Als de tool eenmaal deze informatie heeft gebruikt als trainingsmateriaal, heb je daar geen controle meer over. "Het gebruik van jouw data kun je afschermen door een abonnement af te sluiten, maar de huidige abonnementen hebben dan wel minder functionaliteiten. En dan kun je je nog steeds afvragen waar je data wordt opgeslagen. Het zou een mooie oplossing zijn wanneer de grote Europese tech-reuzen zich committeren om af te zien van het verzamelen van data als business model."

Maatschappelijke impact

Aaron Mirck geeft in zijn boek aan dat de vraag of het gebruik van AI nodig, nuttig of zinnig is, zelden wordt gesteld. Bedrijven die een actief mvo-beleid voeren, zouden zich wel over dat vraagstuk moeten buigen. Want er is nu vooral aandacht voor de economische voordelen die deze tools kunnen bieden, terwijl de maatschappelijke kosten er niet om liegen. "Twintig jaar geleden werden we verleid om met Facebook aan de slag te gaan. Nu komen we erachter dat het toch niet zo'n jofel bedrijf is. Ook bij generatieve AI-tools kunnen we negatieve effecten aanwijzen die direct in verband kunnen worden gebracht met het gebruik hiervan."

Minderjarige datawerkers

Een van de voorbeelden die de auteur in zijn boek aanhaalt, zijn de werknemers die - door de bedrijven achter de generatieve AI-tools zoals ChatGPT - worden ingezet om aanstootgevende content te filteren. Dit werk wordt goedkoop uitbesteed - net als Microsoft, Google en Meta dat deden - bij Sana, een outsourcingbedrijf in Kenia, wiens werknemers last kregen van psychische klachten. Kolotibablo levert zelfs minderjarige datawerkers. "AI-bedrijven besteden werk uit dat wij hier niet willen doen, zonder eerlijke beloning of gedegen controle op de arbeidsomstandigheden. Of je met een niet zo ethisch bedrijf zaken zou moeten doen, is een vraag die vaker binnen het bedrijfsleven zou moeten worden gesteld."

Stroom

Een ander voorbeeld dat nu nog onderbelicht is, is de enorme hoeveelheid stroom die nodig is om de data te verwerven, op te slaan en te verwerken. Ook zorgt het trainen en gebruiken van generatieve AI-tools volgens Mirck voor gigantische hoeveelheden CO2-uitstoot. "Wie tussen de twintig en vijftig vragen aan ChatGPT stelt, zorgt dat er een halve liter water verloren gaat. Elke vraag aan ChatGPT zorgt voor meer dan vier gram CO2-uitstoot, evenveel als bij de productie van een plastic tasje. Tegen 2027 zou alleen al ChatGPT evenveel stroom gebruiken als heel Nederland."

AI als spiegel

Aan het gebruik van AI zitten overduidelijk voor- en nadelen. "In het beste geval is AI een spiegel die jou bewust maakt van het feit dat je bepaalde plannen hebt of bepaalde dingen wilt doen. Juist door de 'ongekende' mogelijkheden van AI ontstaan er veel nieuwe idee?n. Voor die ideeën kan AI een oplossing bieden, maar er zijn wellicht ook betere of simpelere oplossingen. Elke ondernemer zou zichzelf de vraag moeten stellen of AI een doel of een tool is. Ik hoop van harte dat er een kentering gaat plaatsvinden waarbij we een wat kritischere houding gaan aannemen ten opzichte van het gebruik van AI, en dat we niet klakkeloos achter de voordelen van generatieve AI-tools aanlopen."

Tips

Of je als ondernemer wel of niet gebruikmaakt van generatieve AI-tools, is een afweging die ieder voor zichzelf moet maken. Kies je ervoor om het in te zetten, lees dan vooral onderstaande tips door:

-Licht je werknemers goed in over de voor- en nadelen van AI-tools;

-maak duidelijke afspraken over waar je AI-tools wel en niet voor gebruikt;

-gebruik AI-tools voor taken waar je niet goed in bent of geen tijd voor hebt;

-besteed taken waar je juist goed in bent niet uit aan AI. De kans dat je er zelf beter in bent is groot. Bovendien houdt het je brein scherp.


Geen ChatGPT voor ambtenaren

Op dit moment bestaat er geen wet- en regelgeving die generatieve AI-tools en het gebruik ervan reguleert. Dat maakt dat het Rijk geen voorstander is van het gebruik van dergelijke tools door ambtenaren. In december 2023 publiceerde missionair staatssecretaris digitalisering Alexandra van Huffelen in een kamerbrief het voorlopig standpunt over generatieve AI door Rijksorganisaties. In deze brief stond onder andere het volgende: "Niet-gecontracteerde generatieve AI-toepassingen zoals ChatGPT, Bard (tegenwoordig Gemini, red), en Midjourney, voldoen over het algemeen niet aantoonbaar aan de geldende privacy- en auteursrechtelijke wetgeving. Zodoende is het gebruik hiervan door Rijksorganisaties (of in opdracht daarvan) in beginsel niet toegestaan, in die gevallen waarin het risico bestaat dat wetgeving wordt overtreden, tenzij de aanbieder en de gebruiker aantoonbaar voldoen aan de geldende wet- en regelgeving." Het voorlopige standpunt zou geen categorisch verbod van de technologie zijn, aangezien het gebruik niet wordt ontzegd, maar gekaderd. Over welke leveranciers en toepassingen wel voldoen aan de wet- en regelgeving, heeft de minister in de kamerbrief geen uitspraak gedaan.

In de praktijk komt het erop neer dat de overheid ambtenaren niet toestaat om ChatGPT, Bard en Midjourney te gebruiken. Het is niet ondenkbaar dat Rijksdiensten in de toekomst hun leveranciers gaan verplichten om inzage te geven in hoeverre zij werken met generatieve AI-tools en welke afspraken de leveranciers hebben gemaakt. Veel Rijksdiensten kijken nu al kritisch naar hoe duurzaam hun leveranciers werken en zijn verplicht om dit mee te nemen in hun beslissing om wel of niet met een partij in zee te gaan.


AI en copyright

AI-tools maken gebruik van diverse online bronnen en data om hun systemen te trainen. Voor het gebruik hebben ze echter geen toestemming, wat zou betekenen dat er copyright wordt geschonden. Hier een zaak van maken is lastig, omdat het vaak over schendingen in meerdere landen gaat en elk land eigen regels heeft op het gebied van auteursrecht. Ook geven de tools zelf weinig transparantie over welke bronnen er worden gebruikt om te trainen.

OpenAI kondigde in november 2023 aan dat het copyright-rechtszaken van gebruikers gaat vergoeden. Jurist en IP-expert Charlotte Meindersma, die voor het boek 'AI, de hype voorbij' van Aaron Mirck werd geïnterviewd, denkt dat OpenAI de juridische dekking laat afhangen van de manier waarop gebruikers met ChatGPT hebben gewerkt. Zij geeft aan dat "als de opdracht (prompt) zo is opgesteld dat de kans groot is dat de output het auteurs-recht schendt, dan werkt OpenAI vast niet mee aan een rechtszaak."

Volgens de IP-expert zouden rechtszaken tegen AI-bedrijven die inbreuk maken op het auteursrecht in Nederland te weinig opleveren om kostendekkend te zijn, "omdat kantonrechters besloten dat de meeste zaken over auteursrecht, vooral als het over afbeeldingen en teksten gaat, als 'zeer eenvoudig' worden afgedaan. Hierdoor is geen volledige proceskostenveroordeling meer mogelijk en kost procederen vaak meer geld dan winst van de zaak kan opleveren."


In juni maakte Meta bekend dat het bedrijf uploads en privégegevens van de ge-bruikers van Facebook en Instagram wil gaan gebruiken om diens eigen AI-technologie te gaan trainen. Gebruikers van Facebook en Instagram die dit niet wilden, konden een online bezwaarformulier invullen en indienen. Nadat er in Europa een reeks klachten werd ingediend tegen de AI-plannen, heeft Meta besloten om de lancering van het AI-programma in de Europese Unie uit te stellen.
 

delen:

Informatie over de auteur

Sofie Fest | Hoofdredacteur | 0243501352 | email
Uw naam
Uw email
Uw bericht
 
Van Munster Media Groep | bekijk uitgebreid bedrijfsprofiel
Kerkenbos 1075H
6546 BB
nijmegen
Nederland
Algemene voorwaarden Hosted by