
Crans-Montana: quando l’Intelligenza Artificiale manca proprio dove serve
Non vuoi leggerlo? Ascoltalo!
La tragedia di Crans-Montana non è un fallimento tecnologico. È un paradosso sistemico. Accade in uno dei Paesi più avanzati al mondo per adozione dell’Intelligenza Artificiale, hub globale di innovazione, finanza algoritmica, sanità digitale e smart infrastructure. Eppure, proprio lì, un incendio in un locale pubblico si trasforma in una tragedia evitabile.
Non perché la tecnologia non esistesse, ma perché non era integrata nei luoghi a rischio reale. Crans-Montana mette a nudo una verità scomoda: viviamo in società digitalmente avanzate ma fisicamente vulnerabili.
Oggi l’IA governa mercati finanziari, traffico urbano, advertising predittivo e processi decisionali complessi. Ma la sicurezza delle persone nei luoghi di svago resta spesso analogica: estintori obsoleti, cartelli di emergenza statici, procedure progettate decenni fa. La prevenzione incendi è uno degli ultimi ambiti rimasti ai margini della rivoluzione intelligente.
Eppure esistono già soluzioni mature: computer vision per rilevare fumo e fiamme in pochi secondi, algoritmi predittivi capaci di individuare anomalie elettriche prima dell’innesco, sistemi di evacuazione automatica e coordinamento dei soccorsi in tempo reale. Tecnologie disponibili, ma non obbligatorie. Né in Svizzera, né nel resto d’Europa.
Il problema non è l’assenza di norme, ma la cultura del rischio. Finché nulla accade, tutto sembra funzionare. Ma basta un cambio d’uso non aggiornato, un allestimento temporaneo, un impianto al minimo normativo perché la catena della sicurezza si spezzi.
Tecnologia, sicurezza e il fattore umano
Secondo le prime ricostruzioni, l’incendio del locale “Le Constellation” sarebbe stato innescato dall’uso di fountain candles troppo vicine a pannelli fonoassorbenti altamente infiammabili. In un ambiente chiuso, il flashover ha trasformato in pochi istanti una festa in una trappola mortale.
I controlli formali avevano dato esito positivo. Ma la storia delle grandi tragedie insegna che il rischio nasce quasi sempre da un effetto combinato: materiali sbagliati, soffitti bassi, affollamento non governato, vie di fuga poco visibili, gestione dell’emergenza inefficace nei primi 60 secondi. È qui che si misura la differenza tra sicurezza reale e semplice conformità burocratica.
La Svizzera dell’IA: eccellenza teorica, fragilità operativa
La Svizzera investe massicciamente in IA: modelli linguistici open source come Apertus, intelligenza artificiale nei pronto soccorso, ambizioni di leadership globale sulla governance tecnologica. Ma il caso Crans-Montana evidenzia una frattura profonda tra progettazione e implementazione.
Il sistema antincendio è formalmente solido, armonizzato dalle prescrizioni VKF/AEAI, ma demandato ai cantoni per controlli e applicazione. Ristrutturazioni, nuovi effetti scenici e cambi di affluenza reale possono rendere obsolete certificazioni ottenute anni prima. I controlli sporadici diventano così il vero punto debole.
Lo stesso schema si ripete in altri settori: sovranità tecnologica proclamata, dipendenza praticata. Dalla sanità – dove l’uso di strumenti commerciali di IA supera la regolazione – alla pubblica amministrazione, l’innovazione corre più veloce delle regole.
Europa e Cina: due modelli a confronto
In Europa non esiste una normativa unica per i locali pubblici: Bruxelles definisce standard tecnici, mentre Stati e Comuni gestiscono licenze, capienze e sanzioni. Il rischio comune è fermarsi alla compliance formale, senza aggiornare il profilo di rischio dinamico.
La Cina, invece, accelera sull’AI for public safety. Sistemi integrati di sensori IoT, droni e machine learning monitorano in tempo reale stadi, teatri e centri commerciali. I test pilota mostrano una capacità predittiva fino al 95% e una riduzione dei tempi di risposta del 70%. Un benchmark che l’Occidente non può ignorare.
La domanda finale
Crans-Montana pone una questione cruciale: perché l’Intelligenza Artificiale è considerata indispensabile per l’efficienza economica, ma opzionale per la sicurezza delle persone?
Finché l’IA resterà un extra e non una vera infrastruttura di protezione, nessun Paese – nemmeno il più avanzato – potrà dirsi davvero sicuro.


