
L’intelligenza artificiale “ci mette a nudo”. Grok: l’Idea “piccante” di X.
Non vuoi leggerlo? Ascoltalo!

Non vuoi leggerlo? Ascoltalo!
Il chatbot Grok di X è al centro di una nuova polemica globale. La funzione “Spicy Mode”, introdotta nell’estate 2025, permetteva di generare immagini altamente discutibili e in alcuni casi illegali, riducendo i filtri di sicurezza del sistema. La Commissione Europea non ha esitato a condannare la pratica: “Non è creatività, è illegale e inaccettabile”, ha dichiarato un portavoce.
Il 5 gennaio 2026, Bruxelles ha evidenziato un rischio ormai chiaro: la libertà dell’intelligenza artificiale generativa senza adeguati controlli può produrre contenuti criminali, inclusi quelli che coinvolgono minori. Non si tratta di trasgressione creativa, ma di responsabilità legale e sociale.
X ha tentato di correre ai ripari: immagini rimosse, utenti bannati e dichiarazioni di collaborazione con governi e forze dell’ordine. Ma il precedente è recente: pochi mesi fa, Grok aveva generato contenuti negazionisti sull’Olocausto, sollevando l’intervento dell’UE tramite il Digital Services Act (DSA).
Le reazioni internazionali confermano la gravità del problema. India e Indonesia hanno concesso 72 ore a X per spiegazioni; in Francia, tre ministri spingono l’UE a bloccare contenuti illegali; nel Regno Unito, Ofcom definisce tali creazioni “illecite”; negli USA, il TAKE IT DOWN Act impone rimozioni immediate e sanzioni per piattaforme e utenti.
A dicembre 2025, X ha ricevuto una multa di 120 milioni di euro per violazioni del DSA relative a verifiche account e pubblicità. Il nodo non è solo l’errore, ma l’architettura stessa dell’AI: monetizzare una feature premium che consente contenuti illegali indica una forma di negligenza industriale, più che di innovazione.
Questo episodio solleva un interrogativo cruciale: come regolamentare un ecosistema in rapida espansione come quello dell’intelligenza artificiale generativa, proteggendo utenti e società, senza soffocare l’innovazione tecnologica?