HomeBlockchainRegolamentazioneTutti pazzi per crypto e intelligenza artificiale (AI)? Gli avvocati mica tanto...

Tutti pazzi per crypto e intelligenza artificiale (AI)? Gli avvocati mica tanto (parte 1)

Ultimamente si fa un gran parlare delle performance sorprendenti delle applicazioni, crypto e non, di intelligenza artificiale (AI) più in voga. Tra le superstar, naturalmente, tiene banco su tutti i social ChatGPT, l’applicazione sviluppata da OpenAI: alzi la mano chi non si è cimentato a smanettarci.

Ormai a queste applicazioni si chiede qualunque cosa e si ottengono risposte che lasciano a bocca aperta. Google, intanto, si prepara a sferrare la sua offensiva su questo fronte con Bard, la sua applicazione che promette di essere migliore di ChatGPT

In effetti, per chi non è un tecnico le reazioni delle applicazioni di intelligenza artificiale più evolute possono lasciare esterrefatti. Anzi, è così non solo per i non addetti ai lavori: lo scorso anno ha fatto scalpore il caso di Blake Lemoine, ingegnere di Google che aveva sostenuto che il sistema di intelligenza artificiale (AI) LaMDA, progettato per conversare con gli esseri umani (che è poi alla base di Bard) fosse senziente e che per questo è stato licenziato.

Ora, uno dei settori in cui l’uso dell’intelligenza artificiale risulta più controverso è quello legale. 

Nel tempo sono stati sollevati molti dubbi in merito al grado di efficacia effettivo di queste tecnologie, all’opportunità di ricorrervi o meno e, non ultimo, su una quantità di implicazioni etiche che possono scaturire dal ricorso ad applicazioni di intelligenza artificiale, quando si maneggia la sfera dei diritti delle persone, soprattutto se si considera il possibile impatto sui diritti patrimoniali e anche sulle libertà personali.

Sul piano pratico, tuttavia, programmi, tecnologie ed applicazioni di intelligenza artificiale, ormai da diversi anni vengono utilizzati in campo legale.

Non si può certo parlare di un’adozione massiva e tantomeno diffusa, ma queste applicazioni anche nel mondo del diritto si affermano e si diffondono sempre di più.

È almeno dalla seconda decade degli anni 2000 che diversi studi legali nel mondo, e anche italiani, utilizzano sistemi come Ross, sviluppato da IBM, o Luminance. Si tratta di sistemi nati per analizzare e analizzare, ordinare, raggruppare e classificare rapidamente grandi quantità di documenti, per individuarne anomalie segnalandole ai professionisti. Questi sistemi vengono impiegati per lo più a supporto dell’esecuzione di due diligence su grosse operazioni per velocizzare e facilitare il lavoro dei professionisti.

Negli stessi anni, però, sono stati sperimentati anche impieghi diversi dell’intelligenza artificiale in campo legale: nel 2017 la start up inglese CaseCrunch, ha lanciato una sfida in cui ha messo in competizione il suo software CaseCruncher con una schiera di 100 avvocati in carne ed ossa di grande esperienza, per la soluzione di un campione di casistiche legali in ambito bancario. Il sistema di intelligenza artificiale ha avuto la meglio sugli umani, battendoli in velocità, in qualità (fornendo soluzioni più aderenti) e a costi vergognosamente più bassi (300 sterline/ora per gli umani contro 17 sterline/ora per le macchine).

Il che, converrete, è piuttosto inquietante per chiunque indossi una toga.

Crypto, intelligenza artificiale (AI) e sistema giuridico

E se già questo può sembra inquietante, cioè, la possibilità che una macchina possa avere un ruolo “attivo” nei processi decisionali alla base di possibili strategie difensive in ambito legale, performando anche meglio di un avvocato in carne ed ossa, la cosa si fa ancora più delicata se questa tecnologia comincia ad entrare nei processi di elaborazione alla base di possibili verdetti giudiziari o dell’adozione di provvedimenti amministrativi in grado di incidere in positivo o in negativo sulla sfera giuridica degli individui.

Se ve lo state chiedendo, la risposta è sì: anche questo succede già, da diversi anni. Sono molti anni che si sperimentano sistemi di giustizia predittiva. Uno dei casi che hanno fatto parecchio discutere è quello dell’applicazione Compas (Correctional offender management profiling for alternative sanctions), algoritmo utilizzato da molti anni in alcune corti statunitensi per prevedere le probabilità di recidiva dell’imputato per quantificare l’importo delle cauzioni. 

Il punto è che questo sistema si è rivelato spesso inaffidabile e addirittura discriminatorio, perchè tende a sovrastimare il rischio di recidiva per gli imputati afroamericani e a sottostimarlo per quelli caucasici, i bianchi. In più, poiché il funzionamento di quest’applicazione è coperto da segreto a tutela dei brevetti, il sistema risulta tutt’altro che trasparente in quanto non è possibile accedere ai suoi criteri di giudizio. Nonostante ciò, esso continua ad essere impiegato e il suo utilizzo è stato giudicato legittimo dalla Corte Suprema del Wisconsin.

Lo University College di Londra, poi, diversi anni fa ha condotto un esperimento interessante: un software ha simulato il giudizio della Corte Europea dei Diritti dell’Uomo su un campione di 584 casi reali, già giudicati (casi in materia di tortura, trattamenti degradanti e violazione della privacy). Il risultato è che per il 79% di essi il verdetto della macchina ha coinciso con la decisione della Corte di Strasburgo. Bene ma non benissimo.

In Estonia sono stati sperimentati dei giudici – robot per risolvere le controversie di minore entità (fino a 7mila euro di valore) per smaltire l’arretrato. Inoltre, già oggi decine di milioni di controversie tra i trader di eBay vengono gestite e risolte con sistemi automatizzati di “online dispute resolution”, senza il ricorso ad avvocati e giudici umani.

Ed ancora, in Argentina è stato sviluppato Prometea, un sistema di intelligenza artificiale che gestisce e risolve casi giudiziari a struttura semplice e ripetitiva in uno spazio temporale di pochi secondi. I numeri generati sono impressionanti: questo sistema è stato in grado di sfornare migliaia di sentenze in pochi giorni, laddove con i metodi tradizionali ne venivano impiegati, a seconda delle varie materie di applicazione, anche dieci o venti volte tanto.

Lo stesso sistema è stato adottato anche dalla Corte interamericana dei diritti umani, che ha raggiunto un aumento dell’efficienza fino al 143% e la sua utilizzazione è stata valutata anche dal Consiglio di Stato francese.

Nel mondo delle tecnologie il tempo vola. Qui parliamo di sperimentazioni effettuate sette – otto anni fa. Eppure, sembra già preistoria. Per andare a qualcosa di più vicino ai nostri giorni, l’uso di AI in campo giudiziario oggi torna alla ribalta delle cronache con la notizia che nel mese di febbraio per la prima volta negli Stati Uniti sarebbe stata discussa una causa da un avvocato – robot, grazie all’applicazione DoNotPay.

Il caso DoNotPay

DoNotPay è un’applicazione di intelligenza artificiale nata alcuni anni fa per predisporre ed inoltrare in modo automatizzato una gamma di atti legali elementari, per lo più stragiudiziali, tipo lettere di disdetta a servizi, contestazioni a multe, diffide etc.

Ora, i creatori dell’applicazione, che nel frattempo è stata ulteriormente sviluppata e si è considerevolmente evoluta, hanno lanciato la sfida: in un contenzioso minore (su un’infrazione stradale) un sistema di intelligenza artificiale avrebbe dettato (letteralmente) la difesa dell’imputato. In pratica, un avvocato in carne ed ossa avrebbe ripetuto in aula, pedissequamente, ogni parola che gli viene dettata, attraverso gli auricolari, dal sistema di intelligenza artificiale.

Della cosa non se n’è poi più fatto nulla perché, sembra, la procura generale statunitense avrebbe fatto pressioni in questo senso.

Sta di fatto che la notizia ha fatto il suo effetto.

Com’è facile immaginare, la categoria dei giuristi in carne ed ossa, siano essi avvocati o giudici, è densamente popolata di esponenti che non sono particolarmente felici alla prospettiva che computer e software possano rubare loro il lavoro e che, per di più, possano farlo meglio e più a buon mercato.

Proprio in questi giorni mi è capitato di imbattermi in un post promozionale su Facebook di una primaria casa editrice giuridica e produttrice di banche dati e software per studi professionali, in cui si annunziava un’attività di formazione sull’avvocato 4.0, su temi come il metaverso e le applicazioni di intelligenza artificiale.

Seguivano una quantità impressionante di commenti, negativi nella quasi totalità, postati da moltissimi avvocati. I toni dei commenti, spesso sarcastici, esprimevano un profondo rifiuto e persino un totale disprezzo verso l’uso della tecnologia. Il senso di fondo: vogliono eliminare l’elemento umano dalla giustizia. Stanno snaturando la nostra professione. Dove andremo a finire di questo passo? 

Ora, che gli avvocati siano una categoria particolarmente conservativa, soprattutto in Italia, è cosa risaputa. Tuttavia, verso l’intelligenza artificiale diffidenza e ostilità sono sentimenti piuttosto diffusi in molti settori, quali che ne siano le motivazioni alla base.

Sta di fatto che, piaccia o no, oggi tocca fare i conti con questo scenario: che tutto il percorso che inizia con la valutazione delle prospettive di una possibile controversia, passa per l’insorgenza di una controversia e culmina con l’emissione di una decisione giudiziale, in futuro possa essere affidato a sistemi non umani, se non per intero, almeno per una ampia parte.

E alla domanda “che ne sarà dell’avvocato?”, ma anche “che ne sarà del giudice?”, si possono dare molte possibili risposte.

Luciano Quarta - The Crypto Lawyer
Luciano Quarta - The Crypto Lawyer
Luciano Quarta, avvocato tributarista in Milano, managing partner e fondatore dello studio legale tributario QRM&P, ha all’attivo molte pubblicazioni sugli aspetti legali e tributari di legal tech, intelligenza artificiale e criptovalute. Relatore in numerosi convegni sulla materia, tiene la rubrica “Tax & the city” per il quotidiano La Verità e scrive regolarmente per la rubrica Economia e tasse della testata Panorama. È membro della Commissione Giustizia Tributaria presso l’Ordine degli Avvocati di Milano ed è il referente della sede milanese dell’associazione interdisciplinare per lo studio e le applicazioni dell’intelligenza artificiale GP4AI (Global Professionals for Artificial Intelligence).
RELATED ARTICLES

MOST POPULARS