- Gli eventi
- Che cos’è il suprematismo bianco?
- Quando un attacco informatico diventa giustificabile eticamente?
- Su un punto, almeno in apparenza, potremmo trovarci tutti d’accordo. Il suprematismo bianco è il male.
- Il potere dell’intelligenza artificiale
- L’estremismo come prodotto della semplificazione
- Scrivi e fai video per Il Progressista
- Supporta Il Progressista
Un hacker in costume rosa barbie della serie dei power ranger sale su un palco e cancella tre piattaforme legate al suprematismo bianco, tra applausi e standing ovation. La viralità online è presto garantita.
Martha Root diventa l’eroina del giorno, mentre l’odio viene sconfitto a colpi di click. Ma siamo davvero davanti a un atto politico o all’ennesima performance perfettamente calibrata per l’algoritmo? In un web che trasforma tutto in spettacolo, anche l’estremismo, la linea tra giustizia e intrattenimento è più sottile di quanto siamo disposti ad ammettere.
@blicero Una hacker tedesca ha bucato e cancellato un sito di incontri per suprematisti bianchi conosciuto come il “Tinder dei nazisti”. Martha Root, questo lo pseudonimo dell’attivista antifascista, si era infiltrata nel sito WhiteDate qualche mese prima. Come ha raccontato lei stessa (vestita da Power Ranger rosa) all’ultimo congresso del Chaos Computer Club a Berlino, aveva creato una serie di falsi account di donne “ariane” che gestiva attraverso dei chatbot. In sostanza, dice sempre lei, “i nazisti si erano innamorati dei robot”. E così, mentre gli estremisti flirtavano con l’intelligenza artificiale, l’hacktivista raccoglieva dati e informazioni di ogni tipo. Quelli che fanno parte della cosiddetta “razza superiore”, ha chiosato l’hacker, “vogliono conquistare il mondo non sanno neppure mettere in sicurezza un sito d’incontri”.
♬ suono originale – Leonardo Bianchi
Gli eventi
La protagonista di questo chiacchieratissimo evento è Martha Root: un’attivista tedesca, o meglio un’hacktivista, come preferisce definirsi lei stessa. Utilizza le sue competenze di cyber security per “fare del bene”; definizione che prende una piega piuttosto interessante se pensiamo a quello che è successo a fine dicembre 2025 in Germania, sul palco del Chaos Communication Congress, il più grande raduno hacker europeo. Sul palco, davanti a una platea attenta, e probabilmente incredula, ha dato spettacolo in modo mai visto prima: ha cancellato definitivamente dall’internet tre applicazioni legate al suprematismo bianco, e lo ha fatto indossando un costume particolare, quello di Kimberly Ann Hart, conosciuta meglio come il Power Ranger Rosa dell’universo immaginario omonimo. A quanto pare anche l’annientamento dell’odio può diventare una performance, non credete?
Le applicazioni incriminate nella sua opera di cancellazione sono le seguenti:
- WhiteDate, un sito di incontri riservato a suprematisti bianchi: una sorta di Tinder dell’odio, potremmo dire, se non fosse che il romanticismo qui scarseggiava parecchio. Infatti, a differenza delle piattaforme tradizionali, dove la presenza maschile e femminile in parte si equivale, la presenza femminile era minima. Più che per cercare l’anima gemella (con la stessa controversa e discutibile visione del mondo), era una piattaforma utilizzata prevalentemente come spazio di aggregazione ideologica maschile.
- WhiteChild, una piattaforma ancora più disturbante, che promuoveva la cosiddetta riproduzione selettiva, facilitando lo scambio di spermatozoi e ovuli tra persone unite dalla stessa visione razzista del mondo.
- WhiteDeal, un marketplace chiuso ed esclusivo in cui i servizi erano accessibili solo a chi aderiva a quella ideologia.
Root è una figura avvolta da un alone di mistero. Di lei sappiamo pochissimo, il suo nome reale non è noto e il suo volto nemmeno.
Conosciamo solo lo pseudonimo, dietro cui si muove una figura che con ogni probabilità è una donna, attiva nell’ecosistema hacker europeo. L’anonimato serve a spostare l’attenzione dall’identità all’azione politica. E diciamolo è un gesto necessario anche per proteggersi, visto il tipo di nemici che chi usa l’informatica come strumento di intervento politico si fa. Perché sì, tutto è politica, anche un’operazione hacker. Persino il nome scelto come pseudonimo non è casuale ma richiama l’omonima pacifista americana del primo Novecento.
Giunti a questo punto, una domanda sorge spontanea: come ha fatto la nostra hacktivista a cancellare tre siti web? Forse abbiamo tutti un amico “che se la cava con il computer”, quello a cui si chiede di sistemare il Wi-Fi o risolvere bugs di sistema. Ma tra quel tipo di competenza (e il tipo di persone che spesso la ostentano) e la capacità di far sparire piattaforme intere, c’è una bella differenza.
Beh, Root ha agito con precisione chirurgica: ha addestrato dei chatbot affinché rispondessero agli utenti di WhiteDate esattamente come loro si aspettavano, quindi con ideologie naziste e retorica di destra.
Manipolazione? Certo, ma usata con criterio. I chatbot hanno estorto informazioni agli utenti che sono state rivoltate contro di loro. Ma non solo, secondo un’inchiesta de IlMitte, i siti presentavano falle nel sistema di sicurezza veramente imbarazzanti: la privacy era un optional e bastava poco per risalire a informazioni private degli utenti, come l’indirizzo di casa, e il loro nome e cognome (e dire che questi individui volevano ribaltare l’ordine sociale, ma non hanno fatto neanche lo sforzo di usare una vpn).
Tra falle di sistema e utenti decisamente troppo fiduciosi, Martha ha raccolto i dati chiave per portare a termine il suo diabolico piano, riuscendo persino a farsi invitare, sempre attraverso l’utilizzo degli addestrati chat bot, a un raduno per suprematisti bianchi!
Si comprende allora con estrema facilità il calibro degli individui che popolavano quei siti: incapaci di distinguere una conversazione autentica e umana, da una simulazione costruita a colpi di algoritmi e probabilità. In fondo, la trappola non ha fatto altro che assecondarli: si sono consegnati da soli, convinti di essere al sicuro.
Che cos’è il suprematismo bianco?
Per i lettori più curiosi, o semplicemente meno indulgenti, una breve digressione si rende necessaria per capire cosa sia il suprematismo bianco, e perché per molti risulti difficile biasimare le azioni di Martha Root.
Il suprematismo bianco è un’ideologia razzista fondata su un presupposto semplice e devastante: l’idea che le persone bianche siano superiori alle altre e che questa presunta superiorità conferisca loro il diritto di decidere chi comanda e ha valore nella società. Al centro di questa ideologia c’è l’idea che essere bianchi significherebbe essere più intelligenti e più meritevoli rispetto agli individui appartenenti ad altre etnie.
Questa ideologia è un racconto comodo per una certa categoria di individui, e infatti non nasce l’altro ieri.
Tra il XV e il XIX secolo, mentre l’Europa si lanciava nelle grandi conquiste coloniali, questa ideologia trovava terreno fertile. Dalla “scoperta” delle Americhe da parte di Cristoforo Colombo alle deportazioni di schiavi africani per alimentare piantagioni di cotone, caffè e canna da zucchero, lo sfruttamento sistematico di esseri umani aveva bisogno di una giustificazione. E quale migliore di questa?
Come poteva un europeo raccontarsi tutte le barbarie che commetteva senza ammettere di essere un mostro? Semplice: convincendosi di essere superiore. Se il popolo oppresso è definito dagli oppressori come primitivo, allora dominarlo non è violenza. Se è definito inferiore, sfruttarlo non è un crimine. Il suprematismo bianco, in questo modo trasforma le barbarie in missioni civilizzatrici.
Da qui nasce anche l’ossessione per la purezza e il terrore della mescolanza; l’idea che i bianchi debbano accoppiarsi solo tra loro per evitare la “contaminazione”, mentre le coppie miste e i figli di immigrati vengono raccontati come una minaccia all’identità nazionale. “Sostituzione etnica”, come direbbero Matteo Salvini o Giuseppe Cruciani a La Zanzara, con quel tono a metà tra la battuta e l’allarme.
Oggi il suprematismo bianco raramente si presenta a volto scoperto. Preferisce mascherarsi. Si traveste da “difesa della cultura occidentale”, oppure da lotta all’immigrazione “incontrollata”. Il suo habitat naturale è internet: meme apparentemente innocui pubblicati su ogni tipo di social network, battute nei commenti, teorie complottiste che rimbalzano di forum in forum, fino a piattaforme strutturate come quelle scovate dall’hacktivista Martha Root.
È bene specificare senza indugi che queste teorie non hanno basi scientifiche. La genetica dimostra che le differenze tra esseri umani sono minime e non giustificano alcuna gerarchia, le “razze” sono a tutti gli effetti, costruzioni sociali. Eppure, come spesso accade, ciò che è falso può essere incredibilmente funzionale. Soprattutto quando serve a decidere chi nella società ha valore e merita rispetto e chi no.
Quando un attacco informatico diventa giustificabile eticamente?
Dopo la necessaria digressione sul suprematismo bianco, è inevitabile tornare alle azioni compiute dall’hacktivista Martha Root. È lei che, come già raccontato, ha scelto di aggirare il sistema, servendosi di chatbot per raccogliere i dati necessari e colpire direttamente le piattaforme incriminate: WhiteDate, WhiteChild e WhiteDeal, cancellandole dalla rete con un’operazione tanto efficace quanto controversa.
Su un punto, almeno in apparenza, potremmo trovarci tutti d’accordo. Il suprematismo bianco è il male.
Non esiste alcuna superiorità intrinseca tra chi ha la pelle bianca e chi non ce l’ha; esistono piuttosto sistemi di privilegi, opportunità distribuite in modo diseguale, eredità storiche che continuano a produrre vantaggi per alcuni e svantaggi per altri. Un europeo nasce più privilegiato di una persona nera non per il possedimento di qualche virtù individuale, ma per le floride circostanze che lo accompagnano dall’esatto momento in cui viene alla luce.
Eppure, riconoscere un’ideologia come profondamente sbagliata non equivale automaticamente a giustificare qualsiasi mezzo per combatterla. Ed è qui che, personalmente, l’azione della nostra hacktivista smette di convincermi. Ritengo, infatti, che un attacco informatico resti un reato, un qualcosa che un rispettabile cittadino comune, per quanto animato dalle migliori intenzioni, non dovrebbe potersi arrogare il diritto di compiere.
Martha Root si è erta come una paladina, una combattente solitaria contro suprematismo bianco e nazismo. Ideologie che, ripetiamo per rendervi il tutto ancora più chiaro, dominavano effettivamente i siti presi di mira e sono condannabili da ogni punto di vista. Ma il punto, a mio modesto parere, è un altro: chi decide quando una causa è sufficientemente giusta da autorizzare l’illegalità? Dove finisce il “bene comune” e dove inizia l’illusione di avere il diritto di decidere per tutti?
La realtà, in fin dei conti, non è un film Marvel. Non esistono supereroi chiamati a cancellare i cattivi con una pistola laser, tra gli applausi generali. Esiste invece un mondo molto più fragile, in cui un cittadino non può fare ciò che vuole, nemmeno quando è convinto di stare dalla parte giusta della storia. In casi come questi dovrebbero intervenire altri attori: governi e autorità locali competenti, non singoli individui mossi da un’etica personale.
Perché il rischio è evidente. Oggi a essere colpite sono state le piattaforme gestite da suprematisti bianchi e nazisti, facilitati da falle di sicurezza imbarazzanti e da utenti fin troppo inclini a fidarsi di un’intelligenza artificiale. Ma domani? Cambierebbe qualcosa nell’opinione pubblica se il prossimo bersaglio fosse un blog di femministe estremiste? O una comunità politica sgradita? Saremmo così pronti ad applaudire?
La vera domanda, tuttavia, è un’altra. Dovremmo riflettere sul perché lo spazio digitale si stia trasformando in un luogo sempre più polarizzato, dove tutto viene ridotto a buoni e cattivi, senza sfumature, senza zone grigie. E, soprattutto, chi decide dove passa il confine? Cari lettori e care lettrici, lascio a voi le più profonde riflessioni.
Il potere dell’intelligenza artificiale
Desidero proseguire il discorso partendo da ciò che, a mio avviso, ha alterato in modo irreversibile il modo in cui gli utenti abitano lo spazio digitale: l’intelligenza artificiale. Come già accennato, l’hacktivista Martha Root ha addestrato l’IA con notevole precisione, usandola per manovrare un gruppo di individui fin troppo boccaloni.
Negli ultimi anni intelligenza artificiale, e in particolar modo i chatbot, sono cresciuti con una rapidità vertiginosa, al punto che distinguere il vero dal simulato è diventato difficile persino per gli sguardi più allenati. Poco fa ho parlato di estremisti che sono caduti nella rete di parole generate da un algoritmo. Ma siamo davvero certi che la responsabilità ricada interamente su chi non è riuscito a riconoscere una simulazione costruita ad arte?
Probabilmente il problema è più profondo di quello che pensiamo. Riguarda il modo in cui i chatbot si sono normalizzati, diffondendosi a macchia d’olio fino a diventare presenze pressoché costanti nella nostra quotidianità. Per questo è importante capire cosa sia un chatbot e come funzionino. Per interrogarci su come sta cambiando la percezione della realtà e, con essa, la qualità delle nostre relazioni.
Come funzionano i chatbot
Per molti, i chatbot sono una creatura recente, nata nel novembre 2022 con il debutto di ChatGPT firmato OpenAI. Da lì, sono arrivati i cloni più o meno dichiarati, come Copilot e Gemini. Ma davvero pensiamo che tutto sia iniziato lì?
La tecnologia che alimenta queste AI è molto più antica di quanto siamo portati a immaginare e affonda le sue radici nel Natural Language Processing: l’elaborazione del linguaggio naturale. Una branca dell’intelligenza artificiale che da decenni tenta un’impresa audace: far dialogare il linguaggio dei computer, fatto di numeri e algoritmi, con quello umano, per sua natura disordinato e ambiguo, spesso intraducibile persino tra esseri umani. Basti pensare a quante volte abbiamo frainteso il tono di un messaggio scritto. L’obiettivo finale è permettere alle macchine di comprendere testi umani e restituirli sotto forma di risposte coerenti.
La macchina quindi cerca di elaborare il testo effettuando diversi tipi di analisi:
Il primo passaggio è l’analisi lessicale: le parole vengono smembrate in token, che potremo definire come unità minime e indivisibili di informazione. Quando un’intelligenza artificiale affronta un testo, non vede le frasi, la punteggiatura o le intenzioni (come potremo fare noi esseri umani leggendo una mail). Vede token. I token possono essere singole lettere ( persino un innocuo articolo come “l’”), una parte di parola, un numero, un segno di punteggiatura. Tutto dipende dalle regole di tokenizzazione che le sono state impartite.
Questo discorso ci fa tornare indietro ai chatbot utilizzati da Martha Root, che, come vi ho appena introdotto, non erano quindi in grado di leggere i messaggi e il trasporto emotivo scritti dai suprematisti. Leggevano token. Sequenze di dati che, a seconda dell’addestramento ricevuto, permettono di cogliere o di ignorare del tutto le sfumature di una stessa parola.
Vale per le piattaforme incriminate, ma vale ovunque. Anche nei social network. Un meme razzista, uno slogan, una battuta “ironica”: tutto cambia significato a seconda di come viene tokenizzato. In una società che corre veloce e affida sempre più potere all’intelligenza artificiale, lo spazio per le scale di grigio si restringe. Al loro posto proliferano categorie rigide, spesso ideologiche, elaborate da macchine che operano senza supervisione umana. E questo sarà la rovina degli esseri umani. Gli esseri umani sono nati per creare associazioni inattese e interpretare. Le macchine no. Sono costruite per essere prevedibili. Possono solo scimmiottare l’attività umana.
Dopo aver smontato le parole, dobbiamo capire come rimetterle insieme. Entra quindi in gioco l’analisi grammaticale e sintattica. Una volta spezzata una frase in token, la macchina deve stabilire che ruolo abbia ciascun “mattone”: chi è il soggetto, chi il predicato e chi il complemento. E lo fanno utilizzando l’albero sintattico.
Senza questa fase dell’analisi, due frasi costruite con gli stessi token possono avere significati opposti. Ecco un esempio: “I nazisti odiano gli immigrati” e “gli immigrati odiano i nazisti”. Noi umani, capiamo al volo la differenza tra le due frasi. Per una macchina che vede solo sequenze di dati, questo non è immediato e senza l’albero sintattico gli errori sarebbero clamorosi.
Dopo aver smontato e ricomposto la frase, l’intelligenza artificiale deve attribuirle un significato. Si tratta dell’analisi semantica. Operazione tutt’altro semplice, soprattutto se ricordiamo, ancora una volta, che l’AI non riesce a leggere veramente le frasi, ma legge token. E dunque deve trovare un modo per simulare la comprensione del linguaggio umano.
E questo viene fatto traducendo i token in vettori numerici. Una volta trasformati in vettori, questi token vengono collocati in uno spazio semantico con centinaia o migliaia di dimensioni. Ogni parola diventa un punto con coordinate precise. Se due token compaiono in contesti simili, i loro punti si avvicinano; se appaiono in contesti diversi, si allontanano. In pratica parole con significati simili finiscono per avere vettori “vicini”: cane, mammifero, zampe tendono ad abitare lo stesso quartiere semantico, perché nei testi umani compaiono spesso insieme.
Questo spazio non è innato, ovviamente. Viene appreso con l’addestramento. All’intelligenza artificiale vengono dati in pasto miliardi di testi, attraverso il quale, impara quali parole tendono a stare insieme. Così, dopo abbastanza addestramento, “sa” che cane va d’accordo con abbaiare, zampe, mammifero. Durante questo processo, i vettori vengono continuamente aggiustati, con allontanamenti e avvicinamenti. Tuttavia questo, che per noi può sembrare geniale, in realtà può essere pericoloso. Perché l’AI, in realtà, non sa cosa sia un cane. Non conosce la biologia, né il mondo. Se le facessimo leggere abbastanza volte che “i pesci si arrampicano sugli alberi”, per lei quei token finirebbero per stare serenamente vicini nello spazio semantico. Senza nessuna obiezione.
Torniamo per un attimo a Martha Root. I suoi bot infiltrati non erano in grado di riconoscere l’ideologia suprematista in quanto tale. Riconoscevano il modo in cui se ne parlava: conoscevano gli slogan e le costruzioni linguistiche tipiche. Apparivano autentici. Le frasi generate dai bot nascevano da deduzioni statistiche. Dopo aver “digerito” milioni di modelli linguistici, l’AI sceglie il token più probabile da far seguire al precedente. Così prende forma un testo coerente e persino convincente, abbastanza simile da passare inosservato, e a quanto pare, sufficiente per mimare perfettamente il linguaggio di una community, anche la più estrema.
L’estremismo come prodotto della semplificazione
Ora vale la pena spostare lo sguardo e concentrarsi su ciò che davvero merita attenzione: gli estremisti. E soprattutto su una domanda che, a questo punto, diventa inevitabile. Perché, oggi più che mai, il web sembra pullulare di ogni possibile forma di estremismo?
Il mondo contemporaneo, soprattutto online, assomiglia sempre di più a un palcoscenico diviso in due sole parti: buoni e cattivi. Assistiamo a tifi da stadio travestiti da opinioni e a prese di posizione che non contemplano sfumature. La complessità? Non pervenuta.
Basta scorrere i commenti di qualunque social network per rendersene conto. Assistiamo inesorabili a shitstorm che si infiammano contro il personaggio famoso di turno, utenti che esprimono giudizi sprezzanti lanciati con l’arroganza di chi si proclama arbitro del bene e del male, certo di “avere sempre ragione”. Il tutto è fatto di pancia, senza contare fino a dieci.
Il giudizio, va riconosciuto, è una componente strutturale dell’essere umano, una di quelle costanti che, nel tempo, ci hanno persino aiutato a evolverci. Ma le modalità, nel corso delle generazioni, cambiano eccome. Fino a non molto tempo fa, il dissenso e l’odio restavano circoscritti: si consumavano nei bar, nelle piazzette di paese o su un muretto in campagna. Le parole non viaggiavano rapidamente, diffondendosi in modo capillare. Restavano dentro un contesto preciso e lì si esaurivano.
Anche gli estremismi esistevano eccome, come oggi. Ma nascevano da obiettivi concreti e da una volontà organizzata di incidere sulla realtà. Mi vengono immediatamente in mente le lotte operaie e studentesche degli anni Settanta, o persino le Brigate Rosse (realtà storicamente e moralmente NON paragonabili, per ovvie ragioni) avevano in comune un elemento oggi quasi scomparso: un’ideologia strutturata e un’idea, per quanto distorta, di cambiamento sociale. Oggi, invece, resta spesso solo un chiacchiericcio di fondo che non quaglia da nessuna parte.
Gli estremismi che in questo decennio spuntano sui social come funghi sono fatti di tutt’altra sostanza. Chi li abita professa, almeno in apparenza, un’ideologia forte, ma in realtà si nutrono quasi solo di storytelling: molto fumo, pochissimo arrosto. Si parla, ci si rilancia a vicenda, si alimenta il fuoco dell’odio e delle convinzioni più estreme, ma raramente si arriva a qualcosa di concreto. Ci si crede, sì, ma a intermittenza, in modo dichiaratamente performativo.
Dentro questi spazi, accanto a chi aderisce davvero anche alle ideologie più radicali, dal suprematismo bianco al mondo incel, convivono altre figure: troll, utenti di passaggio, presenze attratte più dalla noia o dal gusto di disturbare che da una fede autentica. Lo abbiamo già visto, per esempio, nei gruppi Telegram nati in epoca Covid, frequentati certo da convinti novax, ma anche da chi entrava soltanto per provocare.
Spesso questi forum agiscono come valvole di sfogo per disagi personali: luoghi dove rabbia e frustrazione vengono riversate e agganciate a un’idea che promette ordine e senso. Raramente c’è una fede autentica; e quando c’è, resta frammentata e aleatoria.
Eppure attecchiscono. Perché? Perché il mondo intorno è sempre più piatto, sempre più simile a una puntata infinita di Black Mirror. Il confine tra reale, digitale e fantasia si sfuma di giorno in giorno, e in questo paesaggio confuso anche l’estremismo trova spazio. Basta un terreno impoverito, dove il pensiero si appiattisce e tutto diventa replicabile. In un ambiente così, queste presenze non ci sorprendono affatto.
Ovviamente c’è chi questo modus operandi lo riconosce e decide che vada affossato. E sì, in un certo senso Martha Root lo ha fatto. Resta però un dettaglio scomodo: anche lei, volente o nolente, si muove dentro lo stesso universo di spettacolarizzazione, performance e appiattimento che dice di voler combattere
Siamo davvero sicuri che il suo gesto sia diventato virale per l’azione in sé, come applauso collettivo a un’opera di bene? O ha fatto il giro del web perché, nel frattempo, indossava un costume rosa Barbie? Ha colpito di più l’atto o la messa in scena? A leggere i primi articoli che hanno rilanciato la notizia, ciò che salta agli occhi non è né l’azione né il tono da “supereroina”, che non condivido, come ho già scritto, ma l’effetto clickbait di un contrasto studiato: un hacker, figura che l’immaginario pop ci ha insegnato a temere (complice anche Mr. Robot), vestito di rosa. Antitetico, quasi sinestetico. Perfetto per far cliccare, condividere, commentare. Innegabilmente efficace nel rendere virale la notizia. Colpito e affondato.
Eppure, da persona analitica, tutto questo mi ha costretta a fermarmi un attimo, a guardare oltre la superficie e a scriverne. A voi, cari lettori e care lettrici, l’ardua sentenza.
Scrivi e fai video per Il Progressista
Se hai meno di 30 anni e vuoi raccontare la realtà dalla prospettiva della Generazione Z, unisciti al Progressista: articoli, inchieste, interviste e contenuti che mettono al centro la voce dei giovani.
Supporta Il Progressista
Con 10€ rendi possibile un articolo o un contenuto video. Paghiamo i giovani il doppio degli altri giornali.
Siamo un giornale libero e indipendente, e viviamo grazie alla community. Sostienici per continuare a costruire un’informazione fatta dai giovani, per i giovani.