Manager Room | FABIO MARAZZI: AI Act e il Futuro delle Aziende
Non vuoi leggerlo? Ascoltalo!
Ospitiamo nella Manager Room Fabio MARAZZI, avvocato e socio fondatore di MADV LEX, oggi in partnership con Lexacta, della quale è “of counsel”.
Assiste aziende italiane, europee ed extra europee nei processi di internazionalizzazione e nell’ambito di operazioni cross-border di M&A. Collabora con lo studio legale ReedSmith a Washington D.C.
—
A partire dal 2 febbraio 2025, sarà vietato l’uso di determinati sistemi di intelligenza artificiale considerati ad alto rischio, con sanzioni che entreranno in vigore il 2 agosto dello stesso anno. Questo vale anche per i professionisti dell’ambito legale. Come si stanno uniformando? Sarà un percorso complesso? In quali fasi?
Va ricordato che la tempistica per l’implementazione dell’EU AI Act è stata aggiornata dopo la sua pubblicazione ufficiale sulla Gazzetta ufficiale dell’Unione europea il 12 luglio 2024.
L’atto, approvato dal Parlamento europeo il 13 marzo e dal Consiglio dell’UE il 21 maggio, stabilisce un quadro normativo che diventerà applicabile principalmente 24 mesi dopo la pubblicazione. Ciò consente alle aziende in tutta l’UE di prepararsi alla conformità, fornendo al contempo una chiara tabella di marcia su come i sistemi di intelligenza artificiale saranno regolamentati in futuro. La tempistica scaglionata per la conformità introduce flessibilità a seconda del tipo di sistema di intelligenza artificiale. Ad esempio, le disposizioni generali e le pratiche di intelligenza artificiale vietate saranno applicabili il 2 febbraio 2025 oppure i sistemi IT su larga scala dovranno conformarsi entro il 31 dicembre 2030.
Il percorso sarà certamente complesso e l’educazione sia “legale” che in ogni campo collegato, dovrà essere rigorosa e profonda: personalmente nella mia attività di docenza presso l’Università degli Studi di Pavia e presso l’Università degli Studi di Bergamo, cerco di preparare gli studenti a questa complessità ed ancor più imparare io da loro quali siano le prospettive che temono e che li affascinano.
—
Questa normativa europea ,dovrebbe garantire un uso più responsabile e sicuro dell’intelligenza artificiale, proteggendo al contempo i diritti dei cittadini e promuovendo l’innovazione nel settore.
In primis, le aziende devono implementare i meccanismi di controllo per garantire che le decisioni automatizzate possano essere comprese e contestate dagli utenti. Ma le aziende di cui vi occupate sono, secondo lei, pronte ad affrontare questi cambiamenti?
Se per intelligenza artificiale si intende l’uso e l’applicazione alle macchine di algoritmi, e così si deve iniziare a ragionare, allora è certo che l’Intelligenza Artificiale già permea in profondità l’industria, in generale. La regolamentazione europea detta però regole nuove che proprio perché tali devono essere diligentemente esaminate e quindi applicate all’operatività quotidiana.
Per quanto concerne l’impatto dell’intelligenza artificiale sui consumatori, cioè tutti noi, il tema è molto complesso ed ho in questi mesi l’opportunità di confrontarmi con un gruppo di lavoro nato presso la Duke University, in North Carolina su questi temi, e come unico europeo del gruppo di lavoro, rendermi sempre più conto dei vantaggi e dei molti rischi che si incontrano su questo percorso.
—
Ad esempio, è indispensabile, da parte delle aziende, condurre una valutazione del rischio per identificare e mitigare i potenziali danni derivanti dall’uso dei sistemi di IA.
Quale strategia suggerite ai vostri clienti?
Sicuramente sono azioni che vanno intraprese, in un’ottica di collaborazione con chi sappia comprendere in primo luogo il processo industriale, e quindi ingegneri, softweristi e figure simili, in collaborazione con professionisti, giuristi, possono conciliare l’attenzione e la prevenzione dei rischi ed il corretto assetto dell’applicazione delle tecnologie con “intelligenza artificiale” all’operato quotidiano dell’impresa, iniziando da una necessaria “due diligence” della situazione in essere.
—
Un punto di enorme importanza è, senza dubbio, l’obbligo di responsabilità: Le aziende sono responsabili delle decisioni prese dai loro sistemi di IA, il che implica la necessità di poter spiegare le scelte effettuate dai sistemi stessi.
Quali settori si troveranno, secondo la sua esperienza, in maggiore difficoltà?
Ovviamente quelli a maggiore automazione, ma in genere, considerato quanto la tecnologia sia elemento sempre più presente in ogni prodotto e/o servizio, probabilmente, in misura maggiore o minore, tutti.
Le conseguenze legali per le aziende che non rispettano i requisiti dell’AI Act dell’Unione Europea possono essere molto pesanti. Si va dalle sanzioni pecuniarie, con una multa fino al 6% del fatturato globale annuo, al divieto di operare con sistemi di IA non conformi: dal 2 agosto 2025, sarà vietato l’uso di determinati sistemi di intelligenza artificiale considerati ad alto rischio. Le aziende che continuano a utilizzare tali sistemi, con gravi danni anche alla reputazione aziendale, potrebbero affrontare ulteriori sanzioni e divieti operativi, portando a potenziali azioni legali da parte di utenti o terzi danneggiati. Come studio di consulenza legale, quali consigli e tutela garantite ai clienti in questo nuovo scenario?
Come precedentemente affermato, in primo luogo una disamina dell’attuale assetto del sistema produttivo in generale, che quindi comporta l’identificazione dei fattori di criticità e di conseguenza l’implementazione delle necessarie misure di prevenzione.
Non va dimenticato che soprattutto nel mondo anglosassone si sta discutendo se l’Intelligenza Artificiale possa o meno avere una propria personalità giuridica, e ciò al fine di poter valutare su chi e come ricada la responsabilità di eventuali danni.
—
Se dipendesse da lei, cosa cambierebbe a questa legge della UE?
Il vero dibattito credo sia se un eccesso di regolamentazione, che sicuramente caratterizza l’Europa, non sia un fattore che ostacoli lo sviluppo di una tecnologia, dirompente, come quella della quale stiamo parlando, rispetto ad esempio agli Stati Uniti, ove un sistema di cosiddetta “soft law”, cioè di linee-guida e principi normativa, privi di forza giuridica vincolante, concede invece maggiore libertà di ricerca e di sviluppo di impresa.
I dati empirici a nostra disposizione fanno emergere che i campioni tecnologici mondiali non sono certamente europei, ma bensì statunitensi, e ciò sembra segnalare che lo AI EU ACT, un provvedimento complesso, con forza di legge, possa essere un ostacolo alla crescita dell’Europa tecnologica.
A questo non va dimenticato che si sommano altri fattori, quali la mancanza di un mercato di capitali per la tecnologia, europea, laddove negli Stati Uniti l’agenzia federale NARPA svolge un ruolo primario nel sostenere la crescita di aziende tecnologiche: una politica di immigrazione di talenti, ben chiara e strutturata negli Stati Uniti, a differenza dell’Europa ed infine due ulteriori elementi di riflessione che forse completano il quadro e fanno capire perché l’Europa rincorra, con fatica, gli Stati Uniti: in Europa ci sono 27 culture e 27 lingue ed inoltre le norme che si applicano a chi fallisce. Sono sia moralmente che sostanzialmente, punitive: negli Stati Uniti chi fallisce risorge: in Europa, ed ancor più in certe zone dell’Europa, ed in Italia certamente, chi fallisce commette un peccato irrimediabile.
Una riflessione diversa meriterebbe il chiedersi per quale ragione anche la Cina sorpassi l’Europa.
Giuliana Gagliardi
DiPLANET.Tech