Da Hiroshima alla Digital Law
“Hiroshima Mon Amour”, sono trascorsi sessantaquattro anni dall’uscita del celebre film del regista francese Alain Resnais che volle realizzare questa pellicola un ventennio dopo il primo bombardamento atomico sul Giappone. Un’ora e mezzo di proiezione per riproporre al pubblico mondiale la devastazione materiale e morale di una città che la storia contemporanea aveva condannato a essere “un esperimento” sul potere distruttivo di un ordigno nucleare.
Il recente Summit dei Sette Grandi, ha riproposto Hiroshima come nuovo simbolo di quella paura che la Seconda Guerra mondiale ci ha lasciato in eredità: la minaccia atomica a cui, si aggiungono – oggi – nuovi timori legati all’uso incontrollato di tecnologie sempre più invasive, padrone di scenari apocalittici dove la prerogativa di autodeterminazione del genere umano è messa in discussione. Scenari che sembrano usciti dalla premonitoria creatività di George Orwell o di Herbert G. Wells ma, di certo, le Ai stanno cambiando l’esistenza sul Pianeta e, in primis, quella delle aziende di ogni settore e dimensione, dalle Startup alle multinazionali.
Anche se osservatori “di parte” come, ad esempio, Ramona POP, direttore esecutivo del Vzbv (La Federconsumatori tedesca) mettono in guardia sull’effettiva inattaccabilità della Ai che, secondo lei, “Non è sempre così intelligente come promette il suo nome”, le preoccupazioni degli utenti sono più che legittime se consideriamo il caos determinato dalla mancanza di leggi per l’uso di queste tecnologie. L’Unione Europea è fra le prime istituzioni a tentare di disciplinare, almeno parzialmente, questa materia consapevole che arrendersi ai ritmi vertiginosi dell’innovazione è un’impresa di enormi proporzioni.
Nel vertice giapponese i “Sette Grandi” della Terra hanno avviato “Hiroshima AI process”, un protocollo d’intesa per definire una serie di regole comuni sull’utilizzo della Ai.
La strada sarà lunga e complessa e il primo step dovrebbe concludersi per la fine del 2023.
Il premier giapponese Fumio KISHIDA ha affermato che l’affidabilità delle nuove tecnologie dovrebbe andare di pari passo con i principi di una “democrazia condivisa”.
Affermazione discutibile visti i rapporti non facili fra i Paesi, Ue e non, soprattutto quando si tratta di decidere linee comuni di comportamento.
Comunque saranno gli accordi che i Grandi firmeranno sugli standard tecnici da adottare resta, per ora, una grande incertezza e un uso “fai da te” senza regole di una materia delicata e complessa come l’Intelligenza artificiale generativa, ultima “frontiera”, per ora, in grado di rispondere a ogni prompt con potenziali applicativi che interessano ogni settore.
Recentemente, i componenti del LAION (Open Network of Artificial Intelligence) hanno invitato i politici dell’UE a procedere con moderazione nella regolamentazione dell’IA.
Questo invito alla “prudenza” deriva dal timore, da parte delle imprese, che una regolamentazione troppo restrittiva pesi negativamente sullo sviluppo e sulla competitività.
Tra i convinti sostenitori di un atteggiamento “prudenziale”, soprattutto da parte della Ue, Bernhard Schollkopf, direttore dell’Istituto Max Planck per i sistemi intelligenti di Tubinga e Antonio Kruger, direttore del DFKI, Centro tedesco per la Ai.
Ci troviamo, insomma, a navigare in un oceano in tempesta col rischio di veder naufragare la propria nave, in questo caso l’impresa che vorrebbe adeguarsi ai vantaggi dell’innovazione tecnologica ma non è ancora pronta ad agire secondo gli standard della legalità.
Come risolvere la questione?
Ne parliamo con l’avvocato Andrea LISI esperto in diritto applicato all’informatica e protezione dei dati, presidente di ANORC (Associazione Nazionale Operatori e Responsabili della Custodia di contenuti digitali) e, dal 2023, Componente nel Comitato di Esperti di innovazione tecnologica e transizione digitale della Pa.
Il vertice di Hiroshima indica l’esigenza di una legislazione definitiva dei Paesi + industrializzati in merito all’uso della AI. Qual è la situazione in Italia?
Per sfruttare al meglio i finanziamenti stanziati con il PNRR, il nostro Paese, a fine 2021, ha adottato lo “Strategic Program on Artificial Intelligence 2022 – 2024”, che prevede 24 politiche da implementare per potenziare il sistema AI in Italia, attraverso la creazione e il potenziamento di competenze, ricerca, programmi di sviluppo e applicazioni dell’AI. Il programma si articola su tre aree prioritarie di intervento: talenti e competenze, ecosistema di ricerca e innovazione, applicazione dell’AI nelle industrie e nella PA.
Il resto d’Europa come si sta muovendo?
In Europa, come è noto, si sta discutendo in questi mesi una proposta di Regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale, con obblighi molto gravosi, soprattutto per i fornitori di AI ad alto rischio, in termini di gestione del rischio, di governance dei dati, di documentazione tecnica, tenuta dei registri, valutazioni di impatto. Già nel 2020 è stata pubblicata un’importante Risoluzione del Parlamento Europeo recante raccomandazioni alla Commissione su un regime di responsabilità civile per l’intelligenza artificiale.
Ultima, la Dichiarazione europea sui diritti e i principi digitali per il decennio digitale del 23 gennaio 2023.
Sappiamo che questa materia coinvolge anche l’ambito della “formazione specialistica” e, dunque, tutta la parte degli investimenti destinati. Nel nostro Paese com’è la situazione?
La formazione è una delle priorità. Fra queste ci sono:
- la creazione di nuove cattedre di ricerca sull’AI nelle università e nei centri di ricerca italiani, con l’obiettivo di attrarre i migliori talenti a livello internazionale;
- il potenziamento dei corsi di dottorato in AI, con borse di studio e incentivi per i giovani ricercatori;
- il lancio di un programma di rientro per i professionisti dell’AI che lavorano all’estero, per favorire il trasferimento di competenze e conoscenze verso il sistema italiano;
- la promozione dei corsi e delle carriere STEM (Science, Technology, Engineering and Mathematics), con particolare attenzione alla partecipazione femminile e alla diffusione della cultura scientifica;
- il rafforzamento delle competenze digitali e in AI della popolazione, attraverso percorsi formativi dedicati nelle scuole, nelle università e nei luoghi di lavoro.
Nel settore privato quali aziende investono di più?
Secondo uno studio recentemente condotto da Deloitte), tra le imprese che hanno già implementato o sperimentato soluzioni di AI, spiccano quelle del settore finanziario (60%), seguite da quelle dei settori industriale (14%), assicurativo (12%) e sanitario (8%).
4 imprese su 10 hanno già implementato soluzioni di intelligenza artificiale, e il 94% delle imprese ritiene che l’AI sarà fondamentale per restare competitive nei prossimi 5 anni.
Tra le soluzioni più diffuse ci sono l’intelligent data processing, i chatbot e assistenti virtuali e il natural language processing.
Secondo la Repubblica tra le startup più innovative che si occupano di AI in Italia ci sono:
- Aiko, che sviluppa software di AI per l’automazione delle missioni spaziali;
- Aindo, che crea dati sintetici per l’addestramento delle AI;
- Premoneo, che offre software di AI per la determinazione dei prezzi e il forecasting;
- AlgoSurg, che offre soluzioni di AI per la chirurgia ortopedica;
- Credimi, che usa l’AI per erogare prestiti online alle PMI;
- Ermes Cyber Security, che protegge le reti aziendali con l’AI.
E nelle PA?
L’evoluzione della PA in ambito AI non interessa soltanto le amministrazioni centrali, ma riguarda anche gli enti locali, che utilizzano sistemi AI come sussidio ai cittadini e per le attività di controllo sul territorio.
Come ad esempio:
- il Comune di Milano, che ha sperimentato un chatbot per fornire informazioni ai cittadini sulle misure anti-Covid;
- il Comune di Bologna, che ha adottato una piattaforma di AI per monitorare il traffico e la qualità dell’aria;
- il Comune di Roma, che ha utilizzato un sistema di AI per rilevare le buche stradali.
- il Comune di Torino, che ha sviluppato un algoritmo per ottimizzare la gestione dei rifiuti urbani;
- il Comune di Firenze, che ha implementato un sistema di AI per prevenire il rischio idrogeologico;
- la Regione Lombardia, che ha creato una piattaforma di AI per supportare le decisioni cliniche.
Non si possono non ricordare infine le importantissime applicazioni di Intelligenza Artificiale in ambito sanitario. Tale rivoluzione ha portato l’OMS a stilare un documento su “Ethics and governance of artificial intelligence for health”.
Dalle grandi società alle PMI e alle Startup, quali sono – oggi – i reali pericoli della digitalizzazione?
Molti scrittori e registi si sono affermati immaginando scenari distopici caratterizzati dall’uso di tecniche di intelligenza artificiale alle quali affidare decisioni che ci riguardano per favorire il nostro benessere e rendere più oggettive certe scelte, decisioni che poi si sono rilevate orientabili da terribili dittature tecnologiche. Nel 1958, il sociologo e scrittore di fantascienza inglese Michael D. Young pubblicò “The Rise of Meritocracy”, dove descriveva un’ipotetica società del futuro che sceglieva la sua classe dirigente non per appartenenza sociale, censo, sorte o consenso, ma sulla base di un parametro oggettivo, definito dalla somma del quoziente intellettivo della persona (misurato con ripetuti test di intelligenza) e dell’impegno profuso nello svolgimento di specifiche attività. Questo era il parametro di selezione, quindi il “merito”, che garantiva una scalata meritocratica verso la gestione del potere. Idea bellissima, ma pericolosa se i parametri di misurazione del merito sfuggono a un controllo trasparente e democratico.
In poche parole, e come ripetuto sin dall’inizio di questa intervista, gli algoritmi più o meno intelligenti con cui faremo i conti nel futuro devono favorire un’evoluzione umana. E l’evoluzione umana comporta consapevolezza garantita dalla trasparenza. La consapevole trasparenza può garantire sempre che una lama affilatissima venga usata correttamente dalla parte del manico e per scopi utili all’umanità.
Una tecnologia rivoluzionaria come l’AI può essere, infatti, un meraviglioso coltello con lame affilatissime: se preso dalla lama fa sanguinare abbondantemente, ma dal manico è e sarà strumento utile per tagliare alimenti e quindi indispensabile per la nostra sopravvivenza.
Dunque,non ci resta che attendere le giuste leggi in materia?
Ma attenzione, il diritto non dovrà – comunque – mai avere l’ambizione di inseguire la tecnologia, cavalcarla o addirittura precederla. Il diritto deve limitarsi a rileggere principi generali che accompagnano da centinaia di anni i nostri ordinamenti e che meritano solo di essere pazientemente riadattati a una realtà che si evolve in modo vertiginoso.
Intervista di Giuliana Gagliardi