
Fine dell’AGI? Microsoft presenta la superintelligenza controllabile e human-centric
Non vuoi leggerlo? Ascoltalo!
Microsoft archivia definitivamente la corsa all’AGI e introduce una nuova visione dell’intelligenza artificiale: la Humanist Superintelligence, parte integrante della strategia MAI.
La missione cambia radicalmente: non più creare un’intelligenza onnisciente e priva di limiti, ma progettare sistemi potenti, sicuri e soprattutto utili alle persone, sempre sotto controllo umano.
Questa svolta porta la firma di Mustafa Suleyman, cofondatore di DeepMind e oggi guida di Microsoft AI. Per Suleyman, la domanda non è più quando arriverà una superintelligenza, ma come garantirne allineamento, sicurezza e responsabilità. Da qui nasce il MAI Superintelligence Team, una divisione dedicata allo sviluppo di tecnologie avanzate “a prova di abuso”, progettate per essere verificabili, contenute e orientate al bene collettivo.
La visione della Humanist Superintelligence capovolge l’approccio tradizionale al concetto di AGI. L’obiettivo non è creare un’entità digitale capace di fare tutto, ma costruire intelligenze ultra-specializzate, con limiti chiari, responsabilità integrate e orientamento concreto alla risoluzione di problemi reali. In sostanza: strumenti avanzati e controllabili, non “divinità digitali”.
Suleyman individua tre aree chiave in cui questa visione è già realtà:
- Companion personali: Assistenti intelligenti pensati per supportare focus, apprendimento e produttività, con un design centrato su fiducia, privacy e trasparenza.
- Sanità: Microsoft presenta MAI-DxO, un sistema diagnostico che ha raggiunto l’85% di accuratezza in un test citato dal New England Journal of Medicine, superando la media delle performance umane e riducendo l’uso di test invasivi e costosi.
- Energia: La Humanist Superintelligence punta a trasformare il settore energetico entro il 2040: reti intelligenti, materiali carbon-negative, ricerca sulla fusione e tecnologie a supporto della transizione verso un futuro sostenibile.
La posizione di Microsoft si distanzia nettamente dalla narrativa che vede l’AGI come il punto d’arrivo definitivo. L’azienda rifiuta il mito dell’intelligenza onnipotente e sceglie un modello in cui l’essere umano rimane al comando, mentre l’AI opera come un acceleratore affidabile e controllabile.
Non è solo una scelta tecnologica, ma anche politica e culturale: servono governance distribuite, norme condivise, regole di sicurezza multilivello e collaborazione tra Big Tech, governi e istituzioni. Nessun attore può garantire da solo un uso sicuro dell’AI.
Nei prossimi mesi, il team MAI pubblicherà nuovi modelli, linee guida e casi d’uso, invitando ricercatori e aziende a contribuire alla costruzione di una superintelligenza che non sostituisca l’uomo, ma lo potenzi.
Una tecnologia che collabora, non domina. Un’opportunità per ripensare il progresso tecnologico mettendo l’essere umano — finalmente — al centro.

