
Esplorando l’orizzonte dell’Intelligenza Artificiale: Dai vertici di Milano alle battaglie globali
Non vuoi leggerlo? Ascoltalo!
Si è appena concluso a Milano il Festival delle AI organizzato da Search On Media Group, ideatrice di WMF-We Make Future, che dal 2016 è impegnato nella diffusione di tutto ciò che il Pianeta dell’Intelligenza artificiale propone alle aziende con un focus di primo piano riservato alla formazione.
Un percorso che si consolida con la partnership fra WMF e Prophets of AI che, per la prima volta, porta in Italia l’avanguardia americana dell’Intelligenza Artificiale. La collaborazione vedrà all’opera decine di esperti e speaker che proporranno nuovi programmi e progetti non solo in Italia ma anche in altri Paesi europei fra cui Bulgaria, Spagna e Turchia.
“Questa alleanza strategica nasce da un impegno condiviso verso l’impatto positivo dell’innovazione digitale sull’educazione, l’empowerment imprenditoriale e l’occupazione. L’elenco senza pari di esperti di fama mondiale di Prophets of AI in intelligenza artificiale, filosofia e impatto sociale si allinea perfettamente con la missione di WMF di plasmare un futuro migliore attraverso contributi collettivi.” afferma Matthew Chavira CEO di Prophets of AI.
Il team di esperti che la società americana porta in Europa include nomi di primo piano, – tra cui Andreas Welsch, Jerry Kaplan, Ben Goertzel e David Hanson – che hanno dato contributi significativi all’avanzamento dell’intelligenza artificiale e della robotica, provenienti da background diversi come scienze informatiche, arte, finanza e informatica.
Questi accordi, destinati a dare nuovo impulso al settore, lasciano spazio anche agli scenari che si aprono sui prossimi mesi, soprattutto dopo l’AI Act che l’Unione Europea renderà operativa dal prossimo aprile nonostante le riserve di Francia e Germania.
Nel frattempo, i big devono fare i conti con ostacoli ed errori di percorso. OpenAI ha avuto problemi con ChatGPT e Google ha dovuto interrompere il generatore di immagini Gemini a causa di errori nel rilevamento dei bias etnici, tema che ripropone l’urgenza di garantire imparzialità e sicurezza nell’utilizzo.
Il pregiudizio nell’intelligenza artificiale è una sfida importante per creare tecnologie giuste ed etiche che non condizionino l’interazione fra utenti e sistemi di AI. Dunque, da risolvere ancora una volta, i problemi legati alla sicurezza. OpenAI e Microsoft hanno condotto studi sull’utilizzo di ChatGPT per contrastare l’abuso dell’AI da parte degli hacker e diverse aziende. IBM e Meta si sono unite per combattere l’uso dei deepfake nelle elezioni americane.
L’ufficio del Garante britannico per la protezione dei dati ha ordinato a una sussidiaria di Serco di interrompere l’utilizzo della tecnologia di riconoscimento facciale e la scansione delle impronte digitali per monitorare la presenza del personale nei centri ricreativi. Il Garante ha scoperto che i dati biometrici di oltre 2.000 dipendenti erano stati elaborati illegalmente in 38 centri gestiti da Serco Leisure per controllare la loro presenza. Sono stati emessi avvisi di esecuzione ordinando di non elaborare dati biometrici per monitorare la presenza dei dipendenti e distruggere tutti i dati che non devono essere conservati obbligatoriamente per tre mesi. Questa è la prima volta che l’ICO (Information Commissioner’s Office) adotta misure coercitive contro un datore di lavoro per impedire il trattamento dei dati biometrici del personale. Il Garante ha dichiarato che Serco non ha dimostrato perché fosse necessario o proporzionato utilizzare la scansione delle impronte digitali o il riconoscimento facciale anziché le carte d’identità o i badge per timbrare il cartellino. C’è una crescente preoccupazione riguardo ai datori di lavoro che utilizzano la tecnologia di riconoscimento facciale e altri strumenti di sorveglianza per monitorare il personale. La TUC (Trades Union Congress) ha avvertito nel 2022 che l’uso di tecnologie invasive di sorveglianza e intelligenza artificiale rischiava di “sfuggire al controllo” senza una regolamentazione più rigorosa per proteggere i lavoratori.
Ottimismo nel settore della sanità dove si sono visti progressi significativi in nuove applicazioni e settori. Neuralink, la società di Elon Musk operante nel settore della neuroscienza, ha annunciato che un paziente umano riesce a controllare un mouse con il pensiero grazie a un chip nel cervello.
Google ha lanciato i modelli open-source Gemini e Amazon propone un’AI in grado di generare audio da testo, OpenAI ha riscosso successo con i primi test del modello Sora per la creazione di video.
A Londra si sta sperimentando un software per individuare passeggeri senza biglietto nella metropolitana e l’AIEA (International Agency for Atomic Energy) sta accelerando l’integrazione tra AI ed energia nucleare. Non “si salva” neppure il settore dell’editoria, il New York Times sta valutando l’applicazione dell’AI alle inserzioni pubblicitarie mentre il colosso delle analisi di mercato Gartner prevede il declino dei motori di ricerca a favore incontrastabile dell’AI. Anche i social media stanno subendo trasformazioni significative, con Reddit che firma una partnership per addestrare modelli con i contenuti della piattaforma. Infine, mentre il settore continua a evolversi rapidamente, si discute dei licenziamenti di massa nelle aziende tech e si solleva l’inquietante domanda posta da Eliezer Yudkowsky: potrebbe l’AI rappresentare una minaccia entro cinque anni? Un monito che richiede un costante livello di attenzione e vigilanza.
Giuliana Gagliardi
DiPLANET.Tech


