Overslaan en naar de inhoud gaan

Aanklacht over AI-hallicunaties ChatGPT komt voor de rechter

OpenAI moet zich voor de rechter verantwoorden over informatie die zijn AI-chatbot heeft 'verzonnen'. Generatieve AI-toepassingen kunnen namelijk compleet onjuiste zaken oplepelen, in antwoord op opdrachten die gebruikers invoeren. Dit zogeheten hallucineren gebeurt ongeacht de betrouwbaarheid van de dataset waar die kunstmatige intelligenties op zijn getraind.

De aankomende rechtszaak speelt in de Verenigde Staten, waar een radiopresentator het bedrijf OpenAI heeft aangeklaagd voor laster. ChatGPT van OpenAI heeft namelijk in reactie op een vraag over die man een complete rechtszaak tegen hem gefabriceerd. Volgens de bekende AI-chatbot zou radioprosentator Mark Walters zijn beschuldigd van fraude en verduistering van tegoeden bij een stichting, meldt Ars Technica.

Opdracht: vat samen

De organisatie in kwestie, de Second Amendment Foundation (SAF), maakt zich hard voor wapenrechten in de Verenigde Staten. Walters is ook vóór het Amerikaanse recht van burgers om wapens te mogen hebben. Hij is door de SAF in 2017 beloond met een onderscheiding, maar ChatGPT heeft een niet-bestaande rechtszaak met de stichting en de radiopresentator verzonnen. Dit in reactie op een opdracht om een samenvatting te geven van een wel-bestaande aanklacht van SAF, met geheel andere mensen.

Dit is niet de eerste keer dat de bekende AI-chatbot informatie aan gebruikers heeft gepresenteerd die onvolledig, onjuist of compleet niet waar blijken te zijn. Naast besmeuring van de reputatie van mensen kan dit nog andere ernstige of zelfs zeer schadelijke gevolgen hebben. Zo is een advocaat vorig jaar door een rechter op de vingers getikt omdat hij niet-bestaande rechtszaken en uitspraken daarin heeft aangevoerd in zijn verdediging voor een cliënt in een lopende rechtszaak. En in een hoorzitting voor het Amerikaanse congres is een voorval genoemd waarbij ChatGPT een geval van seksuele intimidatie verzon en daarbij een echt bestaande professor als dader noemde.

Wie gelooft dit?

OpenAI heeft in reactie op de aanklacht van Walters aan de rechter gevraagd om de hele zaak af te wijzen. Dit met de argumentatie dat de output van ChatGPT niet valt te bestempelen als smaad omdat de AI-chatbot niet valt te beschouwen als een 'pubicatie', wat essentieel is voor een aanklacht over laster.

Daarnaast stelde OpenAI dat de aanklager niet kan bewijzen dat er sprake is van kwade opzet én dat mensen de 'verklaringen' van ChatGPT over hem als waar aannemen, laat staan dat hij daar schade door heeft geleden. Deze beweringen van het AI-bedrijf gaan nu dus in de rechtbank worden bekeken, wat een groot effect kan hebben op AI-gebruik en aansprakelijkheid voor fouten in de output die AI-toepassingen geven aan gebruikers.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in