Intelligenza Artificiale negli studi legali tra opportunità e rischi

La Fondazione europea degli avvocati, in collaborazione con la CCBE, si sono riuniti per produrre questo interessante lavoro dal titolo “Guide on the use of Artificial Intelligence-based tools by lawyers and law firms in the EU – 2022 in”: «Questa guida mira a fornire informazioni su come gli avvocati saranno in grado di utilizzare le opportunità offerte dagli strumenti di intelligenza artificiale e su come tali strumenti potrebbero aiutare i processi aziendali delle piccole imprese. Il suo obiettivo è fornire agli avvocati un background per capire cosa possono e non possono aspettarsi realisticamente da questi prodotti.»

La guida offre una panoramica delle applicazioni AI in sei diverse categorie che sono probabilmente di maggiore rilevanza per gli avvocati:

  1. strumenti di supporto alla redazione, a sua volta suddiviso in
  2. strumenti di assistenza alla scrittura, che sono per lo più integrati in elaboratori di testi,
  3. strumenti di assemblaggio di documenti, progettati per facilitare l’automazione della costruzione di documenti da testi modello in base a condizioni specifiche, in funzione di una economia di scala, e una divisione più generica della generazione di testo da dati non testuali, per esempio per incorporare argomentazioni avanzate da una parte, in una struttura, sulla base della quale possono essere presentate risposte al tribunale.

Gli stessi strumenti di ricerca quantitativa hanno reso possibile un’altra classe di strumenti nell’analisi giurisprudenziale: gli strumenti predittivi, che, sulla base della giurisprudenza, tentano di fornire una stima di vari risultati quantitativi del caso.

  1. Strumenti di sintesi vocale, che sono già disponibili per gli avvocati in tutte le lingue ufficiali dell’UE, ma con cospicui margini di miglioramento, ad esempio in relazione al riconoscimento accurato del parlato senza una previa formazione nella voce di tale utente, o nella trascrizione di registrazioni effettuate in ambienti rumorosi, o di più relatori, o anche nell’automatizzazione della creazione di verbali di riunioni dalle registrazioni!
  2. Chatbot, strumenti che di solito funzionano e interagiscono con gli utenti, compresa la comprensione del testo naturale nelle chat, con correlati rischi per la privacy e la riservatezza degli utenti.
  3. Il monitoraggio automatizzato del tempo degli avvocati, che non è solo utile ai fini dell’efficienza, ma potrebbe anche comportare rischi pericolosi per la privacy, in quanto per efficientare i processi amministrativi interni, si dovranno informare i dipendenti dell’utilizzo di questi strumenti, di come funzionino.

Ancora più interessante nei capitoli che seguono è la parte relativa ai rischi, che si annidano nell’utilizzo di strumenti automatizzati per l’avvocato del futuro: rischi che comprendono il dovere di riservatezza del cliente, aspettative di competenza e indipendenza della professione, lato deontologico, ma anche mancanza di trasparenza e spiegabilità, lato strumento di IA, in cui appaiono anche problematiche legate alla fragilità dei training data e rischi di discriminazione!

Emergono i seguenti punti di interesse:

  • Per quanto l’utilizzo del cloud computing, il CCBE ha evidenziato problematiche come il problema dell’extraterritorialità (gli utenti non hanno alcun controllo su come le normative locali applicabili al cloud provider potrebbero influenzare i diritti e le tutele concesse agli avvocati nella loro giurisdizione di origine), e il problema di come gli avvocati possano accedere ai propri dati, al termine del rapporto contrattuale con il fornitore.
  • Documenti separati, fatture, saldi e informazioni sull’account cliente possono essere esportati facilmente da un servizio di cloud computing, ma non esiste un modo standardizzato per esportare tutte le informazioni transazionali e trasferirle a un altro fornitore di servizi cloud. Più completamente lo strumento di intelligenza artificiale è integrato nelle operazioni di uno studio legale, più grande diventa questo problema!
  • I modelli linguistici di incorporamento delle parole stanno diventando dominanti nell’uso legale dell’IA. Tuttavia, questa tecnica è un tipo di modello a scatola nera, il che significa che questi modelli non funzionano in un modo che può essere interpretato e spiegato.
  • Privacy e cybersecurity restano anche due fondamentali nodi da sciogliere: finché il fornitore di servizi (o qualsiasi piattaforma o fornitore di infrastruttura sottostante) è tecnicamente in grado di leggere e accedere ai dati dell’avvocato, i rischi di un accesso non autorizzato rimarranno una seria preoccupazione per gli avvocati.
  • La metodologia di contratti per adesione stabiliti dalle BigTech che forniscono questo tipo di servizio, che viene implementato con forme di autoapprendimento su dati forniti dallo studio, aggiunge “benzina sul fuoco”, in quanto: «La semplice accettazione di termini e condizioni standard contenenti autorizzazioni implicite o esplicite per la formazione o l’analisi sarebbe probabilmente in violazione degli obblighi professionali di riservatezza a meno che il cliente non abbia fornito un previo consenso informato. Tuttavia, è improbabile che tale consenso venga prestato se l’avvocato non è nemmeno consapevole dei rischi.»
  • The fear of missing out (FOMO): questa paura di essere tagliati fuori, di essere esclusi, estrinsecazione di questa nuova forma di ansia sociale, nel campo dell’IA può aumentare i rischi legati all’insufficiente competenza professionale.

Un eccesso di entusiasmo nel provare nuovi strumenti può portare a problemi più strategici di violazioni impreviste di dati o violazione degli obblighi professionali.

Raffaella AGHEMO, avvocato

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *