"Giustizia Predittiva: IA, Processo, Dati." AIGA, Roma

La rivoluzione epistemologica posta dall’IA

 

Venerdì 7 febbraio 2020 abbiamo partecipato al convegno “Giustizia Predittiva: Intelligenza Artificiale, Processo, Dati” promosso da AIGA, Associazione Italiana Giovani Avvocati, a Roma. Nel panel di ospiti presenti - tra cui il professor Enzo Maria Le Fevre e la giornalista Claudia Morelli - è intervenuto per noi Luca Baraldi, Head of Corporate Identity di Energy Way, con uno speech incentrato sulle problematiche e le sfide poste dall’applicazione dei modelli di intelligenza artificiale ai sistemi giudiziari.

 

Ecco, di seguito, la trascrizione dell’intervento:

 

“[…] E’ stata una mattina molto ricca, molto stimolante. Ringrazio Castelli, che ha lanciato e messo sul tavolo il problema delle macchinette del caffè: il tema che davvero rischiamo di dimenticare, anche in una giornata come questa in cui affrontiamo il problema dell’applicazione tecnologica da tanti punti di vista, è che si rischia sempre di tenere un po’ al di fuori delle prospettive concettuali ed interpretative la variabile umana, non solo da parte di chi la deve gestire (di chi si deve interrogare, su come elaborare queste tecnologie in maniera proficua, coerente, affidabile), ma anche per chi deve cercare di capire in che modo questa tecnologia applicata avrà un impatto a livello culturale e sociale molto più ampio.

 

A fronte di questo, abbiamo la responsabilità di affrontare almeno 3 tipi di problemi: il 1° è un problema di tipo tecnologico. Non vi annoierò cercando di definire che cos’è l’intelligenza artificiale, provando cioè a demitizzare i luoghi comuni che ci portano sempre a fraintendere o ad approssimare in maniera molto banalizzante la natura e l’applicazione di questo tipo di tecnologia – che non è altro che matematica applicata -, però vorrei focalizzare l’attenzione su un punto che è il tema che affrontiamo quotidianamente anche nell’uso, uno degli usi più banali dell’intelligenza artificiale, ovvero il traduttore simultaneo, come ad esempio Google Translate.

 

Uno dei casi che David Bevilacqua avrebbe riportato qui oggi è quello della traduzione “david bevilacqua” su Google Translate, che viene tradotta come “david drinkwater", e che ritraducendo poi “david drinkwater” dall’inglese all’italiano diventa “david bevi l’acqua”. Cosa significa? A partire da questo esempio, dobbiamo capire che esiste una fragilità di fondo nel sistema di analisi semantica dell’intelligenza artificiale (che dal punto di vista tecnico equivale ad analisi probabilistiche), che crea le condizioni per semplificare un lavoro che è fondamentalmente ermeneutica, e di aggregazione dei moti informativi che abbiamo a disposizione, ma che contemporaneamente, ad ogni passaggio, responsabilizza quella che è la discrezionalità dell’osservatore, del sorvegliante umano, che però ci chiama a prestare grande attenzione al 2° tipo di problema, il problema educativo e formativo, a tutto tondo."

 

AIGA_Luca Baraldi_2020

Congresso "Giustizia Predittiva" AIGA, Roma. 07/02/20

 

 

"Prima, l’avvocato Galletti parlava della necessità della formazione dei giovani e affermava che in realtà  i giovani partono avvantaggiati, per una questione di maggiore dimestichezza nell’uso della tecnologia. Questo rappresenta certamente una verità, ma anche un grandissimo rischio: proprio per una condizione di presunta convinzione di capire di cosa si tratta, e quindi di potenziale superficialità nell’utilizzo di queste tecnologie, si verifica il rischio di banalizzazione di quello che è l’impatto di queste tecnologie sui processi cognitivi, sulle scelte quotidiane, sull’esercizio del libero arbitrio nella vita di tutti i giorni.


Il grande problema, motivo per cui Energy Way è qui oggi, è il tema della responsabilità educativa di chi si occupa di questi temi, sia a livello della cosiddetta “priorità dell’explainability“, così definita dalla Commissione Europea, ma in maniera molto più ampia, dell’accessibilità concettuale, ovvero della comprensibilità di cosa sia l’intelligenza artificiale e di come questa funzioni. La dottoressa Morelli prima ci ha aiutato a cogliere tanti aspetti: c’è bisogno di divulgazione molto avanzata, a tutte le fasce di età, per andare a intervenire su un analfabetismo reale, che è convinto di saperne qualcosa. Questo perché? Perché se andiamo a cercare, su una qualunque banca dati bibliotecaria, un titolo inerente l’intelligenza artificiale, troveremmo una sovrapproduzione di libri di qualunque tipo, per cui anche il pasticcere ha scritto “L’intelligenza artificiale e il bignè”. Esagero, ma fino a un certo punto. Questo è un problema reale.

 

Il sovraccarico di informazioni, da una parte, rende molto più vulnerabile quella che può essere la nostra capacità di selezione dell’informazione corretta, e, dall’altra, contribuisce ad alimentare una presunta consapevolezza su una tema che molto spesso rischia di avere fondamenta fragili. E qua arriviamo a quello che a mio avviso è il grande tema fondamentale: il problema epistemologico. Noi crediamo di dover affrontare solamente una rivoluzione tecnologica, ma in verità non è così, e non è neppure semplicemente una questione di imitazione cognitiva dei meccanismi delle reti neurali, è qualcosa che va molto più a fondo: stiamo modificando il nostro approccio all’epistemologia, al modo in cui studiamo come conosciamo le cose. Da questo punto di vista, pur non essendo io un giurista (me ne sono occupato solo da un punto di vista storico) credo però che ci sia una componente che, a livello di epistemologia, di ermeneutica giuridica e di inevitabilità dell’esercizio della discrezionalità, nell’evoluzione della giurisprudenza, comunque continuerà sempre, e in ogni condizione, a sfuggire a una possibilità di rendere algoritmica un’abitudine mentale.

 

Il tema qual è? Che l’applicazione dell’intelligenza artificiale in ambito giudiziario rende evidente oggi l’inefficienza del formalismo matematico rispetto a un sistema concettuale che è per propria natura dinamico. Stamattina il presidente Malinconico parlava del Manifesto dell’avvocatura italiana per la salvaguardia della giurisprudenza, e faceva riferimento all’articolo 11, l’ha citato quasi tutto, tranne le ultime 5 o 6 parole, in cui si afferma che è importante lavorare per il rafforzamento del valore interpretativo del precedente, per una condizione fondamentale che è la precondizione dell’adeguamento dinamico dell’ordinamento giuridico. Questo cosa significa?

 

L’intelligenza artificiale fondamentalmente è un sistema di gestione di grandi quantità di dati molto avanzati, l’algoritmo è invece una tecnologia che deve essere educata, addestrata a partire da grandi quantità di dati per riuscire a trasformare degli input, attraverso un processo di elaborazione, in risultati, output, secondo quanto abbiamo chiesto o immaginato di riuscire a chiedere. Da questo punto di vista, quindi, abbiamo dei dati in entrata, un processo di dati in uscita, i dati che abbiamo detto dovrebbero essere certificati – forse ci si dovrebbe interrogare di più su un’etica del dato, che su un'etica dell’algoritmo – e però la questione reale è che il tempo di addestramento rischia di creare un'asincronia tra la maturità dell’algoritmo e l’evoluzione della giurisprudenza."

 

Congresso "Giustizia Predittiva" AIGA, Roma. 07/02/20

 

 

"Ragionando con il team che lavora ai nostri progetti educativi, abbiamo cominciato a parlare di quello che definiamo l’effetto stella o l’effetto cielo stellato. Noi sappiamo che oggi vediamo un cielo stellato che non esiste più, sappiamo che vediamo stelle che magari si sono spente centomila anni fa. Ecco, il rischio - se non gestito opportunamente - dell’applicazione dell’intelligenza artificiale in ambito giudiziario è di addestrare un algoritmo su un sistema già sorpassato.

 

Ragionando per paradossi, proviamo a immaginare un algoritmo che elabori i dati di una situazione di unione civile tra persone dello stesso sesso: se un algoritmo è stato addestrato con la legislazione vigente, fino al momento dello spartiacque, momento che ha modificato l’approccio legislativo e determinato un’importante trasformazione a livello sociale e culturale, oggigiorno non riuscirebbe a interpretare e a fornire la risposta corretta.

 

Vorrei focalizzare l’attenzione e insistere su questo tema: uno dei grandi problemi che non può essere trascurato in un contesto come questo, in cui ci si interroga su come affrontare e su come introdurre in maniera proficua l’intelligenza artificiale in ambito giudiziario, è la necessità di assumersi anche la responsabilità di favorire un processo di alfabetizzazione sociale, di educazione e di problematizzazione del rapporto tra l’educazione sociale e l’evoluzione tecnologica. Questo perché stiamo affrontando una rivoluzione epistemologica vera e propria: cambia il modo in cui conosciamo le cose e cambia il mondo in cui possiamo interrogarci su come impariamo a conoscerle.

 

Per concludere, molto brevemente: da una parte, abbiamo un formalismo matematico che è inadatto, insufficiente a rappresentare e sostituire interamente le variabili che caratterizzano la gestione a tutti i livelli della giustizia, rispetto all’impatto sociale sulle comunità; dall'altra, tanti falsi miti sull’intelligenza artificiale che ci inducono a credere di sapere realmente con cosa abbiamo a che fare, ma che evidentemente ci portano spesso all’errore, al fraintendimento. Abbiamo anche un’accelerazione costante sul tema della datificazione della realtà, che contemporaneamente può portarci ad altri tipi di errore, per esempio alla sovrainterpretazione, all’individuazione di correlazioni non esistenti, o addirittura alla forzatura sull’interpretazione di un processo logico laddove ad esempio logica non c’era – quindi la datificazione della realtà può rischiare di creare dei bias deduttivi. Per finire, abbiamo un altro grande problema sul quale interrogarci: accettare la responsabilità sull’educazione a medio termine per le future generazioni, per metterle in condizione di affrontare il tema dell’intelligenza artificiale rispetto alla società, all’economia e alla ricerca, anche da un punto di vista critico.

 

Serve quindi accettare questa dimensione molto più ampia di rivoluzione non solo tecnologica, ma epistemologica, occorre affrontare con uno sguardo critico e prudente il tema dell’addestramento dell’intelligenza artificiale, e focalizzare bene l’attenzione anche sulla necessità di un’etica del dato e non solo di un’etica dell’intelligenza artificiale, e accettare la responsabilità di promuovere modelli di educazione avanzata e di alfabetizzazione sociale a tutte le età e in tutte le categorie.