La vicenda dei due avvocati statunitensi che si sono affidati ciecamente a ChatGPT e hanno depositato in tribunale dei precedenti inventati di sana pianta dal popolarissimo software di intelligenza artificiale ha un seguito.
I due, Steven Schwartz e Peter LoDuca, insieme allo studio legale Levidow, Levidow & Oberman P.C., sono stati sanzionati dal giudice federale Kevin Castel, quello al quale avevano presentato i precedenti inventati da ChatGPT senza verificarli.
Il giudice ha rilasciato un parere e un ordine sanzionatorio nel quale dice che gli avvocati e il loro studio hanno “abbandonato le proprie responsabilità quando hanno presentato pareri giudiziari inesistenti con citazioni false create dallo strumento di intelligenza artificiale ChatGPT e poi hanno continuato a difendere i pareri falsi dopo che gli ordini giudiziari avevano messo in discussione la loro esistenza”.
Ha aggiunto che il deposito di pareri falsi causa molti danni: “La controparte perde tempo e denaro nello smascheramento dell’inganno. Il tempo del tribunale viene tolto ad altri compiti importanti. Il cliente può trovarsi privo di argomentazioni basate su precedenti giudiziari reali. C’è un danno potenziale alla reputazione di giudici e tribunali i cui nomi vengano falsamente invocati come autori dei pareri fasulli e alla reputazione di una parte alla quale venga attribuita una condotta di fantasia. Questo promuove il cinismo nei confronti della professione legale e del sistema giudiziario statunitense. E una futura parte in causa potrebbe essere tentata di impugnare una decisione giudiziaria asserendo in malafede dubbi sulla sua autenticità”.
Il giudice Castel ha disposto un’ammenda di 5000 dollari a ciascun avvocato e
ordinato loro di inviare notifica al proprio cliente (la cui azione legale,
fra l’altro, è stata
respinta
per scadenza dei termini) e a ciascuno dei giudici falsamente identificati
come autori dei precedenti da ChatGPT. Al di là dell’importo relativamente esiguo dell’ammenda, le carriere di Steven Schwartz e Peter LoDuca rischiano di essere seriamente compromesse a lungo termine perché chiunque cerchi i loro nomi in Google li troverà soprattutto in relazione a questo loro errore grossolano.
Sostituite lettore e giornali a controparte, cliente, giudice o tribunale nel parere del giudice e avrete quello che succederà al giornalismo sotto l’attacco combinato dell’intelligenza artificiale e dell’avidità naturale.
Fonti aggiuntive: The Register, Ars Technica.
Nessun commento:
Posta un commento
Se vuoi commentare tramite Disqus (consigliato), vai alla versione per schermi grandi. I commenti immessi qui potrebbero non comparire su Disqus.