Nonostante i suoi trent’anni di lavoro un avvocato dello studio Levidow & Oberman di nome Steven Schwartz, credendo di semplificare il proprio lavoro rivolgendosi a ChatGPT, ha finito per ritrovarsi in uno spiacevole inconveniente con il giudice presentandosi in udienza con una serie di pratiche legali su casi inventati.
Roberto Mata, cliente dell’avvocato, si era rivolto a Schwartz per denunciare la compagnia aerea Vianca a causa di un incidente durante un volo di linea con un carrello di servizio.
"Dopo aver intentato la causa in Tribunale, l’avvocato Steven Schwartz a supporto della propria difesa ha fornito delle sentenze fasulle (a sua insaputa) sfruttando il sistema di intelligenza artificiale di ChatGPT".
Sebbene la buona fede dell’avvocato, che aveva provato a difendersi mostrando i vari quesiti presentati all’algoritmo e specificando se la loro realtà fosse confermata, il giudice non ha voluto sentire storie; facendo passare l’avvocato dalla parte del torto e intentando delle sanzioni contro di lui.
I sistemi di intelligenza artificiale come ChatGPT non possono essere considerati affidabili per casi complessi. La loro attendibilità deve essere sempre confermata da ricerche più approfondite, e soprattutto dalle fonti certificate che ne conferiscono la validità.
Unisciti alle menti principali della tecnologia legale e ricevi mensilmente le ultime notizie e gli aggiornamenti su legge, tecnologia legale, intelligenza artificiale e molto altro.