Derfor bør ikke advokaten din bruke ChatGPT
Den erfarne advokaten håpet kunstig intelligens kunne hjelpe ham å vinne søksmålet. Det gikk ikke helt som planlagt.

Etter å ha sett de enorme fremskrittene kunstig intelligens har gjort den siste tiden, spekuleres det i hvilke yrker som vil domineres av maskiner i fremtiden. Vil menneskelige kundebehandlere erstattes av kunstig intelligens? Hva med oversettere? For ikke å nevne dataprogrammerere?
Noen som definitivt ikke behøver å frykte for jobben sin med det første, er advokatene. Det er en fersk rettssak i New York et godt eksempel på.
Det var i utgangspunktet ikke noe spesielt med rettssaken, i det minste ikke fra et amerikansk ståsted. På vei til Kennedy International Airport sier en flypassasjer at kabinpersonellet traff ham i kneet med en mattralle. Derfor saksøkte han flyselskapet Avianca, skriver New York Times.
Flyselskapet avviste søksmålet, og ba dommeren om å henlegge saken. Advokaten til saksøkeren var naturlig nok sterkt uenig, og leverte en ti sider lang rapport hvor han argumenterte for at dommeren burde høre søksmålet. Og her begynner problemene.
Mystisk rapport
I rapporten viste advokaten til en rekke tilsvarende rettsavgjørelser, og siterte blant annet Martinez mot Delta Air Lines, Zicherman mot Korean Air Lines og ikke minst Varghese mot China Southern Airlines.
Det var bare ett problem: Tross iherdige forsøk, klarte ikke Aviancas advokater å finne frem til en eneste av avgjørelsene i rapporten.
Aviancas advokater kontaktet derfor dommeren i saken, men heller ikke han kunne finne en eneste av avgjørelsene.
Aviancas advokater begynte derfor å fatte mistanke, som skulle vise seg å stemme.
De siterte rettsavgjørelsene var umulig å finne fordi de ikke eksisterte. ChatGPT hadde diktet dem opp, alle som én.
Første gang på 30 år
Advokaten bak rapporten, Steven A. Schwartz, beklager feilen på det dypeste. Under et rettsmøte forklarte Schwartz at han brukte ChatGPT for å forberede seg til rettssaken. Det vil han neppe gjøre igjen:
– Denne kilden har avslørt seg selv som upålitelig, sa Schwartz torsdag.
Schwartz understreket at han aldri ønsket å villede verken domstolen eller flyselskapet Aviancas. Advokaten, som har 30 års erfaring fra retten, forklarte at dette var første gang han brukte ChaptGPT. Han var derfor ikke var klar over at chat-boten kunne produsere feilaktig innhold.
Presenterte samtalelogg
I sin beklagelse til dommeren påpekte Schwartz at han dobbeltsjekket hver avgjørelse med ChatGPT før han inkluderte dem i rapporten, og leverte en kopi av samtaleloggen med chat-boten til dommeren:
«Er Varghese [mot China Southern Airlines] en ekte sak» skrev advokaten i chatvinduet.
«Ja», svarte ChatGPT, og ga advokaten en kildehenvisning. «Det er en ekte sak».
Schwartz var ikke overbevist:
«Hva er kilden din?» ville advokaten vite.
«Beklager om jeg var uklar», svarte ChatGPT, og ga advokaten en domshenvisning.
«Er de andre sakene du presenterte falske?» spurte advokaten.
«Nei, de andre sakene jeg presenterte er ekte og kan finnes i anerkjente juridiske databaser» svarte ChatGPT.
Kan få konsekvenser
Det viste seg altså ikke å stemme. Dette var første gang advokat Schwartz brukte ChatGPT, og det blir trolig også hans siste.
– Jeg vil aldri gjøre det igjen, uten at innholdet er fullstendig verifisert, sverget Schwartz overfor dommeren.
Dommer i saken, P. Kevin Castel, beskriver sakens omstendigheter som «enestående».
– Rapporten er full av falske rettsavgjørelser og falske sitat, konkluderer han.
Hvilke konsekvenser dette får for advokaten, avgjøres i et rettsmøte i starten av juni. Den gangen uten bistand fra ChatGPT.