
Crans-Montana: quando l’Intelligenza Artificiale manca proprio dove serve
Non vuoi leggerlo? Ascoltalo!
La tragedia di Crans-Montana non è uno scandalo tecnologico, è un paradosso moderno. Avviene in uno dei Paesi più avanzati al mondo nell’uso dell’Intelligenza Artificiale, laboratorio globale di innovazione, finanza algoritmica, sanità digitale e infrastrutture intelligenti, eppure proprio lì un incendio in un locale pubblico si trasforma in una tragedia. Non perché la tecnologia mancasse, ma perché non era dove serviva. Crans-Montana racconta una verità scomoda: viviamo in Paesi digitalmente avanzati ma fisicamente vulnerabili.
L’Intelligenza Artificiale domina, ormai, ovunque: governa mercati, traffico, pubblicità e decisioni complesse, ma la sicurezza delle persone nei luoghi di svago resta analogica, affidata a vecchi estintori – quando ci sono – cartelli di uscita e procedure pensate decenni fa. La prevenzione incendi è uno degli ultimi settori rimasti fuori dalla rivoluzione intelligente. In Svizzera l’Intelligenza Artificiale è al primo posto per gli investimenti da parte delle imprese nei centri di ricerca, nelle banche, negli ospedali, nelle smart city, ma non è obbligatoria nei bar, nelle discoteche, nei ristoranti e nei locali turistici di montagna, dove il rischio viene ancora gestito secondo una logica antica: finché non succede nulla, va tutto bene. Eppure, oggi esistono sistemi capaci di rilevare fumo e fiamme in pochi secondi con la visione artificiale, di prevedere anomalie elettriche prima che diventino incendio, di attivare evacuazioni automatiche e coordinare allarmi e soccorsi in tempo reale, ma nulla di tutto questo è standard, né in Svizzera né nel resto d’Europa, perché la legge continua a rincorrere il disastro invece di anticiparlo.
Il vero anello debole non è l’Intelligenza Artificiale, ma la cultura del rischio: anche con norme avanzate e controlli formali, basta un edificio adattato nel tempo, un impianto al minimo normativo o una sottovalutazione del pericolo perché la catena della sicurezza si spezzi. Oggi, le nuove tecnologie sono programmate per segnalare, prevedere, allertare, ma se non vengono installate e gestite correttamente, restano soltanto una interessante teoria.
La lezione più dolorosa di Crans-Montana è che nel 2025 si è dato più spazio ai dati che alle persone, con sistemi sofisticati per evitare una frode bancaria ma non sempre per evitare un incendio in un locale affollato. “Business is business” è l’imperativo per dare tutto lo spazio possibile alla security nel Fintech. È qui che l’innovazione smette di essere progresso, rivela le sue falle e diventa retorica.
Crans-Montana pone una domanda inevitabile: perché l’Intelligenza Artificiale è considerata indispensabile per l’efficienza ma opzionale per la sicurezza? Finché l’IA resterà un extra e non un’infrastruttura di protezione, nessun Paese, nemmeno il più avanzato, potrà dirsi davvero sicuro.
Tecnologia e sicurezza
A innescare il rogo del locale “Le Constellation” sarebbero state le “fountain candles” usate troppo vicine ai pannelli fonoassorbenti che sono facilmente infiammabili, soprattutto in un ambiente chiuso dove il flashover ha trasformato in pochi istanti una festa in trappola mortale.
Secondo le affermazioni dei titolari del locale, Jacques e Jessica Moretti, proprietari dal 2015 – il primo con pesanti precedenti penali sulle spalle – ogni controllo di legge avrebbe dato l’Ok per organizzare i party di fine anno: nessun pericolo, tutto nella norma. Purtroppo, non è stato così.
Il filo rosso che collega Crans-Montana alle grandi tragedie del passato è l’“effetto combinato”: scintilla scenografica, materiali sbagliati, soffitti bassi e strozzature, affollamento non governato, uscite non visibili o inutilizzabili, gestione dell’emergenza confusa nei primi 60 secondi. È su questo piano operativo – governance dei controlli, cultura dell’enforcement e attenzione costante a capienze reali, vie di fuga e allestimenti, anche temporanei – che si gioca la vera differenza tra sistemi, più che nei codici stampati in Gazzetta o nei portali delle autorità antincendio.
La Svizzera dell’IA: sovrana nei modelli, fragile nella realtà
In Svizzera, la sicurezza per i locali pubblici è quella di un federalismo tecnico: regole antincendio armonizzate dalle prescrizioni VKF/AEAI (Vereinigung Kantonaler Feuerversicherungen; Associazione degli Istituti Cantonali di Assicurazione Incendio) ma, applicazione e controlli in mano ai cantoni. Sulla carta il quadro è robusto – materiali, compartimentazione, vie di fuga e affollamenti sono normati con dovizia di dettagli – ma il caso Crans-Montana mostra la crepa reale: ristrutturazioni, cambi d’uso, nuovi effetti scenici e affluenze di fatto possono far deragliare, nel tempo, una conformità originariamente acquisita. I controlli non “annuali” ma sporadici, rivendicati come regolari dai proprietari, diventano così l’anello debole.
Nel 2026 la Svizzera si racconta come laboratorio ideale dell’intelligenza artificiale: modelli linguistici open source come Apertus, IA generativa nei pronto soccorso, ambizioni di leadership globale sulla governance tecnologica e un vertice mondiale sull’IA in agenda a Ginevra. Sulla carta, un Paese che vuole dimostrare di poter competere con Stati Uniti e Cina senza rinunciare a etica, trasparenza e diritti fondamentali.
Ma dietro la narrazione patinata emergono contraddizioni strutturali che ricordano un paradosso tutto svizzero: quello di Crans-Montana, dove un disastro annunciato ha messo a nudo falle sistemiche in un Paese considerato modello di efficienza, prevenzione e controllo. Anche sull’IA, la Svizzera eccelle nella progettazione teorica, ma inciampa nell’implementazione concreta.
Da un lato, Apertus viene celebrato come simbolo di sovranità tecnologica: open source fino all’ultimo token, finanziato dallo Stato, pensato per creare un ecosistema locale di competenze. Dall’altro, la Confederazione continua a spendere centinaia di milioni in licenze Microsoft, ammettendo che cambiare fornitore è “troppo rischioso”. Sovranità proclamata, dipendenza praticata.
Lo stesso vale per la sanità: mentre ospedali come il CHUV (Centre hospitalier universitaire vaudois) l’Ospedale universitario del Canton Vaud, con sede a Losanna, dove si testano modelli IA locali per rispettare la privacy dei pazienti, con oltre il 70% dei medici che usa già strumenti commerciali come ChatGPT, non regolati e non addestrati, su dati clinici reali. L’innovazione corre più veloce delle regole e le regole restano frammentate e deboli, soprattutto contro la discriminazione algoritmica.
La Svizzera rifiuta una legge quadro sull’IA sul modello europeo, preferendo aggiustamenti graduali e convenzioni internazionali. Una scelta prudente, forse troppo, in un contesto in cui l’IA viene già usata per decidere chi assume, chi ottiene credito, chi viene escluso. Come a Crans-Montana, il problema non è la mancanza di competenze, ma la riluttanza ad affrontare i rischi sistemici prima che diventino emergenze.
E mentre Ginevra si prepara a ospitare il grande summit globale sull’IA, resta una domanda: può un Paese che fatica a garantire coerenza interna proporsi come arbitro morale e tecnico dell’intelligenza artificiale mondiale? La Svizzera ha tutte le carte in regola per farlo.
Nel resto d’Europa lo scenario non è più rassicurante, solo diverso. Non esiste una “direttiva discoteche” unica: Buxelles fissa standard tecnici (come la EN 13501-1 sui materiali e la loro reazione al fuoco), mentre sono Stati e Comuni a decidere capienze, uscite, gestione delle emergenze, licenze e sanzioni. Il confronto UE–Svizzera non è tra chi ha leggi e chi no, ma tra modelli regolatori che condividono un medesimo rischio: la tendenza a fermarsi alla conformità burocratica senza aggiornare il profilo di rischio reale del locale.
L’Italia è citata ad esempio di regolazione “forte”: il D.M. 19 agosto 1996 sui locali pubblici e il più recente Codice di prevenzione incendi che prevede un impianto dettagliato e sempre più prestazionale, centrato su capienze, vie di esodo, impianti, gestione e scenari complessi. Ma anche qui, suggerisce il paragone, il salto di qualità non dipende tanto dall’ennesima norma quanto dalla capacità di tradurla in controlli sistematici, formazione degli operatori e cultura del crowd management. La Cina accelera l’adozione dell’intelligenza artificiale per la sicurezza pubblica, puntando a un sistema predittivo contro gli incendi in stadi, centri commerciali e teatri. Annunciato dal Ministero per l’Emergenza e la Gestione del Rischio, il progetto integra sensori IoT, droni e algoritmi di machine learning per monitorare in tempo reale anomalie termiche, flussi di persone e rischi strutturali.
CINA: una lezione per l’Occidente
Secondo i test pilota a Pechino, effettuati alla fine 2025 per la prevenzione degli incendi in luoghi pubblici, i modelli di deep learning sono in grado di analizzare dati da telecamere termiche e sensori ambientali, prevedendo incendi con un’accuratezza del 95%. Ad esempio, l’AI rileva surriscaldamenti precoci in impianti elettrici o accumuli di fumo invisibile, attivando evacuazioni automatiche e allarmi mirati. Integrato con il Social Credit System, il tool premia i gestori di venue compliant con bonus regolatori.
Già testato in 50 siti pilota, il sistema riduce i tempi di risposta del 70%, salvando vite in contesti ad alta densità come i mega-eventi. Per l’Europa, inclusa l’Italia con i suoi stadi e fiere, rappresenta un benchmark: normative UE su AI etica (AI Act) potrebbero accelerarne l’adozione, bilanciando privacy e sicurezza. Esperti prevedono che questi sistemi possano essere adottati anche da noi entro il 2027.


