ChatGPT: vervanger van bedrijfsjuristen?

Nieuws

ChatGPT: vervanger van bedrijfsjuristen?

25 oktober 2023

Anno 2023 kun je geen krant openslaan of nieuwssite bekijken zonder te struikelen over de artikelen die gouden bergen beloven dankzij de komst van geavanceerde kunstmatige intelligentietoepassingen. 

Of om dezelfde reden het einde van onze samenleving voorspellen. Vooral de nieuwste generatieve kunstmatige intelligentietoepassingen, waarvan de slimme chatbot ChatGPT het bekendste voorbeeld is, doen momenteel veel stof opwaaien. ChatGPT is een chatbot op basis van kunstmatige intelligentie die dialogen kan voeren met de gebruiker en teksten als artikelen, blogs en speeches kan aanleveren.
Shanna van der Water, Maurits Meijboom, Martin Woodward, Lieke van Helvoort en Willem-Jan Ribberink van de NGB sectie Digitalisering delen ervaringen en geven tips.

ChatGTP I door Canva op basis van omschrijving ChatGTP

ChatGTP I door Canva op basis van omschrijving ChatGTP

Als juristen begrijpen we dat de komst van technologieën zoals ChatGPT op het bedrijfsleven grote invloed zal hebben. Het implementeren van deze geavanceerde systemen brengt specifieke kansen maar tegelijkertijd ook risico’s met zich mee waar bedrijven rekening mee moeten houden, ook vanuit een juridisch oogpunt.            

In dit artikel delen we eerst onze eerste ervaringen met ChatGPT en vervolgens geven we enkele tips voor het gebruik hiervan. We bespreken daarna diverse belangrijke juridische overwegingen met betrekking tot het gebruik van ChatGPT binnen bedrijven: van de bescherming van persoonsgegevens, aansprakelijkheid tot intellectuele eigendom en de bescherming van vertrouwelijke informatie. En in het kader van full disclosure: het eerste concept van dit artikel is niet door mensen, maar door ChatGPT geschreven. We hebben vervolgens, zoals een goed jurist betaamt, een mark-up opgesteld, aanvullingen gedaan en dit artikel gefinaliseerd.

Ervaringen en tips voor effectieve ChatGPT Prompts

Onze eerste ervaring met ChatGPT bracht enige zorgen met zich mee. Is het voorbij met onze carrière? Maakt deze chatbot ons werk overbodig? Ons antwoord is duidelijk: nee.     

ChatGPT heeft veel potentie om ons werk makkelijker te maken, maar het vereist nadrukkelijk menselijke juridische sturing. Ieder van de auteurs van dit artikel stelde      ChatGPT in eigen bewoordingen de vraag om een blog te schrijven voor juristen over de do’s en don’ts en de juridische risico’s van het gebruik van ChatGPT in het bedrijfsleven. Dat leverde op het eerste gezicht een verbluffend resultaat op.

Wat ons als juristen opviel is dat ChatGPT – in beginsel – een prima juridisch stuk kan schrijven in vooral beschrijvende vorm. Echter, na een verdere bestudering van ChatGPT’s creatie volgde de conclusie al gauw dat de juridische diepgang miste. Uitdaging voor ons was om vervolgens aanvullende vragen (prompts) te stellen om ChatGPT tot meer juridische diepgang te dwingen. Noemenswaardig is verder nog dat data van ChatGPT actueel is tot bijna twee jaar geleden, dus tot september 2021. Kortom: de geruststellende gedachte is dat voor het schrijven van een juridische tekst door ChatGPT toch finetuning en aanvulling door een menselijke jurist noodzakelijk blijft.

ChatGPT stelt je in staat om het leermechanisme van het AI-model te deactiveren. Hierdoor leert het model niet van de verstrekte informatie en worden de gesprekken niet opgeslagen voor latere weergave. Onopgeslagen chats worden automatisch verwijderd door ChatGPT binnen 30 dagen. Het is aan te raden om het leermechanisme uit te schakelen wanneer je strikte controle over de uitvoer wilt handhaven, risico's zoals ongepaste inhoud wilt vermijden of wanneer privacy en gegevensbeveiliging van essentieel belang zijn.

Bedrijven hebben ook de optie om 'ChatGPT for Business' aan te schaffen, een aanpasbare variant van ChatGPT. Deze versie biedt de mogelijkheid om klantenservice te verbeteren, marketingactiviteiten te versterken en content te genereren. Organisaties behouden controle over de gegenereerde tekst en kunnen de AI afstemmen op hun eigen communicatiestijl.

Op basis van onze ervaringen adviseren wij met het volgende rekening te houden als je als jurist ChatGPT een tekst wil laten schrijven:

  1. Wees duidelijk, eenduidig, specifiek en volledig in je prompts om ChatGPT te helpen begrijpen wat je wil. Geef bijvoorbeeld de informatie die je al hebt aan ChatGPT, denk hierbij aan feiten en omstandigheden, maar bijvoorbeeld ook voorwaarden of correspondentie waarvan je wilt dat ChatGPT hier een reactie op schrijft.
  1. Definieer de context van je vraag – nog voordat je de vraag daadwerkelijk stelt – om ChatGPT te voorzien van relevante informatie. Geef bijvoorbeeld aan voor wie je de tekst schrijft en waarom, bijvoorbeeld: ’Ik ben een juridisch adviseur gespecialiseerd in X, in sector Y en de ontvanger is Z‘. Instrueer ChatGPT door aan te geven of je een blog of een meer serieuze tekst zoals een reactie op een ingebrekestelling wenst.
  1. Beperk de gewenste responslengte door bijvoorbeeld expliciet aan te geven dat je een beknopt antwoord wil. Bijvoorbeeld: ’Schrijf de blog in maximaal 1000 woorden’.
     
  2. Geef contextuele voorbeelden om ChatGPT te helpen bij het genereren van relevante antwoorden. Bijvoorbeeld: ’Het overtreden van artikel X van deze voorwaarden heeft tot gevolg dat de leverancier tot opeising over mag gaan van de vordering. Klant A is in overtreding van artikel X.’

Stel jezelf (juridische) verdiepingsvragen als je essentiële punten mist. Bijvoorbeeld: ’Zijn er nog specifieke juridische aspecten die je aan dit artikel wil toevoegen?’ Noem hierbij de specifieke rechtsgebieden (bijv. aansprakelijkheid, intellectuele eigendom of privacy).

Juridische aspecten

 Ook wij stelden ChatGPT deze laatste vraag (5). Op basis hiervan kwam de chatbot tot het hierna volgende advies over diverse juridische aspecten die in ogenschouw moeten worden genomen bij het gebruik van deze slimme chatbot in het bedrijfsleven. Opvallend hierbij is dat ChatGPT weliswaar vele relevante aspecten aanhaalt, maar dat de antwoorden tamelijk oppervlakkig blijven en het ook -zacht gezegd- niet de meest spannende schrijfstijl hanteert.

ChatGPT: 

’Bescherming van persoonsgegevens:

Als bedrijven ChatGPT gebruiken, moeten ze ervoor zorgen dat persoonsgegevens van klanten die via de chatbot worden verzameld, beschermd zijn en voldoen aan relevante privacywetgeving, zoals de Algemene Verordening Gegevensbescherming (AVG) in de Europese Unie. Het is essentieel dat bedrijven duidelijk aangeven welke persoonsgegevens worden verzameld en hoe deze worden gebruikt. Ze moeten ook passende technische en organisatorische maatregelen nemen om persoonsgegevens te beschermen tegen ongeoorloofde toegang, verlies of diefstal.

 Aansprakelijkheid:

Omdat ChatGPT fouten kan maken en mogelijk onjuiste informatie aan klanten kan verstrekken, is het belangrijk dat bedrijven zich bewust zijn van hun aansprakelijkheid in dergelijke gevallen. Het is van cruciaal belang dat bedrijven voldoende aandacht besteden aan de kwaliteit van de antwoorden en duidelijk aangeven wat de beperkingen zijn van ChatGPT. Door dit te doen, kunnen bedrijven zich voorbereiden op mogelijke aansprakelijkheid voor eventuele schade als gevolg van fouten van ChatGPT.

 Contractuele Beperkingen:

Bij het gebruik van een op ChatGPT gebaseerde omgeving van derden, zoals een chatbotprovider, moeten bedrijven rekening houden met eventuele contractuele beperkingen. Het is essentieel om de voorwaarden van het contract zorgvuldig te bestuderen om te voldoen aan de vereisten voor het gebruik van de chatbot en om eventuele beperkingen of aansprakelijkheidsbeperkingen goed te begrijpen. Door contractuele verplichtingen na te leven, kunnen bedrijven het gebruik van ChatGPT op een juridisch conforme manier waarborgen.

Intellectuele Eigendom:

Bij het gebruik van ChatGPT binnen bedrijven zijn er belangrijke aandachtspunten met betrekking tot intellectuele eigendom. Het is van groot belang dat bedrijven ervoor zorgen dat de gegenereerde tekst geen inbreuk maakt op het auteursrecht van anderen. Het is noodzakelijk om ervoor te zorgen dat ChatGPT alleen informatie genereert die gebaseerd is op openbare of rechtmatig verkregen informatie. Dit betekent dat bedrijven de verantwoordelijkheid hebben om de gegenereerde content zorgvuldig te controleren en ervoor te zorgen dat deze geen inbreuk maakt op auteursrechten, handelsmerken of andere intellectuele eigendomsrechten. Het is raadzaam om een duidelijk beleid op te stellen waarin wordt aangegeven dat de verantwoordelijkheid voor eventuele inbreuken bij de gebruiker van ChatGPT ligt en niet bij de chatbot zelf.

 Bescherming van vertrouwelijke informatie:

Naast intellectuele eigendom is het beschermen van vertrouwelijke informatie een belangrijk aspect bij het gebruik van ChatGPT. Bedrijven moeten ervoor zorgen dat de chatbot geen toegang heeft tot gevoelige bedrijfsinformatie of vertrouwelijke gegevens van klanten, tenzij dit strikt noodzakelijk is voor de werking van de chatbot. Het implementeren van adequate beveiligingsmaatregelen, zoals versleuteling en toegangscontroles, is cruciaal om de vertrouwelijkheid van informatie te waarborgen. Bedrijven moeten ook duidelijk communiceren welke gegevens worden verzameld en op welke manier ze worden gebruikt, om transparantie te bevorderen en het vertrouwen van klanten te behouden.

 Toezicht en verantwoordelijkheid:

Het is belangrijk voor bedrijven om toezicht te houden op de werking van ChatGPT en regelmatig controles uit te voeren om de juistheid en betrouwbaarheid van de gegenereerde informatie te waarborgen. Het is niet voldoende om volledig te vertrouwen op de chatbot zonder enige vorm van menselijke tussenkomst. Menselijke toezicht en interventie zijn nodig om eventuele fouten, vooringenomenheid of ongewenste resultaten te identificeren en te corrigeren. Door een actief toezichtsproces te implementeren, kunnen bedrijven de verantwoordelijkheid nemen voor de werking van de chatbot en mogelijke juridische risico's minimaliseren.'

Geruststellend is dat ChatGPT gelukkig zelf ook constateert dat menselijke toezicht en interventie nodig blijft.

Do’s and don’ts

We vroegen ChatGPT vervolgens om de do’s en don’ts voor het gebruik hiervan binnen een bedrijf. Hierbij valt op dat de chatbot toch snel in herhaling valt ten opzichte van eerder gegeven antwoorden en dat de chatbot de antwoorden lijkt te baseren op een gesloten ChatGPT omgeving. We delen hieronder niettemin de belangrijkste aandachtspunten, te beginnen met de do’s:

’Transparantie en Duidelijkheid:

  • Zorg ervoor dat klanten op de hoogte zijn wanneer ze communiceren met ChatGPT in plaats van een menselijke medewerker. Geef duidelijk aan dat ze te maken hebben met een geautomatiseerd systeem.
  • Verstrek relevante informatie over de werking en beperkingen van ChatGPT, inclusief het vermogen om menselijke fouten te maken.
  • Maak gebruik van duidelijke meldingen en disclaimers op de chatplatforms om de transparantie te waarborgen.

Naleving van regelgeving en ethische normen:

  • Zorg ervoor dat ChatGPT voldoet aan alle geldende regelgeving en ethische normen binnen de financiële sector, zoals privacywetten en de bescherming van klantgegevens.
  • Implementeer technische en organisatorische maatregelen om de vertrouwelijkheid en integriteit van klantgegevens te waarborgen.

Onderhoud en Evaluatie:

  • Voer regelmatige controles en evaluaties uit van ChatGPT om ervoor te zorgen dat het correct functioneert en voldoet aan de vereiste standaarden.
  • Monitor de prestaties van het model en identificeer en corrigeer eventuele vertekenende of vooringenomen resultaten die kunnen optreden.’

ChatGPT formuleerde de volgende don’ts:    

 ’Ongeoorloofde adviesverlening:

  • Vermijd het gebruik van ChatGPT voor het verstrekken van juridisch of financieel advies zonder de betrokkenheid van een gekwalificeerde professional.
  • Communiceer duidelijk naar klanten dat de informatie verstrekt door ChatGPT alleen ter informatie is en geen juridische of financiële adviezen bevat.

Verkeerd gebruik van gevoelige informatie:

  • Zorg ervoor dat ChatGPT geen gevoelige informatie, zoals inloggegevens, persoonlijke identificeerbare informatie (PII) of financiële gegevens, verzamelt, opslaat of deelt.
  • Implementeer robuuste beveiligingsmaatregelen om de vertrouwelijkheid en integriteit van gegevens te waarborgen.’
ChatGTP II door Canva als persoon

ChatGTP II door Canva als persoon

Conclusie

Het gebruik van ChatGPT binnen bedrijven brengt verschillende juridische aspecten met zich mee die niet over het hoofd mogen worden gezien. Het waarborgen van de bescherming van persoonsgegevens, het omgaan met aansprakelijkheid, het naleven van contractuele verplichtingen, het waarborgen van intellectuele eigendomsrechten, het beschermen van vertrouwelijke informatie en het implementeren van toezicht en verantwoordelijkheid zijn allemaal relevante aandachtspunten.

Hoewel ChatGPT waardevol kan zijn voor bedrijven, moeten deze proactief zijn bij het adresseren van deze juridische aspecten. Het is daarom belangrijk om samen te werken met juridische professionals om ervoor te zorgen dat de implementatie van ChatGPT in overeenstemming is met de geldende wet- en regelgeving, zeker nu gespecialiseerde wetgeving (denk aan de Europese A.I. Act en A.I. Liability Directive) op dit punt aanstaande is.

Bovendien moeten bedrijven een goed begrip hebben van de beperkingen van ChatGPT en de verantwoordelijkheid nemen voor de juistheid en betrouwbaarheid van de gegenereerde informatie. Het is cruciaal om een evenwicht te vinden tussen bijvoorbeeld een geautomatiseerde chatfunctionaliteit en menselijke tussenkomst om de kwaliteit van de dienstverlening te waarborgen. Zoals we immers zagen in ons eigen experiment, is het gebruik van ChatGPT zeker geen garantie voor de meest bevredigende uitkomst.

Uiteindelijk laat ChatGPT zich misschien nog het beste vergelijken met een hele slimme stagiaire: stel het de juiste vragen en geef het voldoende context, en het antwoord zal je in positieve zin verrassen. Laat je dit achterwege, dan komt het systeem weliswaar meestal met correcte antwoorden, maar is de bruikbaarheid beperkt. En zo blijft het succes van één van ‘s werelds meest geavanceerde kunstmatige intelligentietoepassingen uiteindelijk toch mensenwerk.

Lieke van Helvoort is Manager Legal, Risk & Compliance bij Swiss Sense; Maurits Meijboom is Senior Legal Director Marketing, Digital and Data bij PVH Corp.; Willem-Jan Ribberink is Senior Legal Counsel bij Deltares; Shanna van der Water is Legal Expert bij ING Bank N.V.; Martin Woodward is Director global legal - head of tech legal bij Randstad. De auteurs maken deel uit van de NGB-sectie Digitalisering.

 

De twee afbeeldingen in dit artikel zijn gegenereerd door ChatGTP (Plus account) en Canva (free). Lieke van Helvoort vertelt hoe dat in zijn werk ging:

‘Ik heb ChatGPT gevraagd om een omschrijving te maken van een beeld van zichzelf. Hier kwam de volgende omschrijving uit:
‘Als ik een fysieke entiteit zou zijn, zou ik waarschijnlijk geen menselijke vorm hebben, aangezien ik in wezen een computerprogramma ben. Mijn uiterlijk zou waarschijnlijk meer lijken op een abstracte weergave van digitale technologie, zoals een complexe reeks van lichtgevende lijnen, cirkels of patronen die voortdurend veranderen en evolueren om de ideeën en informatie die ik vertegenwoordig, te symboliseren. Dit zou de nadruk leggen op mijn digitale aard en mijn vermogen om snel en efficiënt informatie te verwerken en te genereren.’
Vervolgens heb ik gevraagd om een omschrijving die ik kan gebruiken voor Canva, tekst naar image. Daar kwam dezelfde omschrijving uit.
Op basis daarvan heb ik Canva het plaatje laten maken, daar kwam de afbeelding met gekleurde cirkels uit (afb. I).
Vervolgens heb ik gevraagd: ‘Maak een plaatje van een fysieke vorm van chatGPT. Laat zien hoe chatGPT eruit zou zien als persoon.’
Daarbij kreeg ik de afbeelding van een meer menselijke figuur (afb. II).’

Sluiten