Come il controllo tecnocratico israeliano esporta l’oppressione algoritmica
Testing ground dell’autoritarismo digitale
Mentre il dibattito sull’etica dell’intelligenza artificiale guarda spesso a scenari futuri, nei Territori Palestinesi Occupati la sorveglianza algoritmica, il riconoscimento facciale e l’automazione del controllo sociale sono già realtà quotidiana. Secondo Amnesty International, la Palestina è diventata un vero e proprio laboratorio di sistemi di controllo, testati, perfezionati ed esportati a livello globale [Amnesty, 2023].
Red Wolf: l’automazione dell’apartheid
Nel maggio 2023 Amnesty International ha denunciato l’uso di un sistema di riconoscimento facciale chiamato Red Wolf, operativo ai checkpoint militari di Hebron. Il software scansiona i volti dei palestinesi senza consenso, li confronta con un database e decide se consentire o meno il passaggio. Chi non risulta registrato viene automaticamente bloccato [Amnesty, Automated Apartheid, 2023].
Già nel 2021 il Washington Post aveva documentato l’espansione di sistemi di riconoscimento facciale ai checkpoint della Cisgiordania, parte di un più ampio programma di sorveglianza militare [Washington Post, 2021].
Blue Wolf e la logica competitiva della sorveglianza
Secondo testimonianze raccolte da Breaking the Silence, i soldati israeliani utilizzano un’app chiamata Blue Wolf per raccogliere e consultare informazioni biometriche sui palestinesi. Ex militari hanno riferito che esistevano classifiche interne basate sul numero di persone registrate, con premi per le unità più “efficienti” [Breaking the Silence, 2020–2023].
Questo meccanismo ha trasformato la raccolta dati in una pratica competitiva, con un effetto evidente di disumanizzazione.
Mabat 2000: lo sguardo onnipresente
A Gerusalemme Est Israele gestisce Mabat 2000, una vasta rete di telecamere a circuito chiuso. Un’inchiesta di Amnesty ha segnalato la densità particolarmente elevata di telecamere nella Città Vecchia e nei quartieri palestinesi, in alcuni casi a intervalli di pochi metri [Amnesty, 2023].
Il Middle East Institute ha documentato il forte impatto psicologico di questa sorveglianza costante: una residente palestinese ha dichiarato “sono osservata tutto il tempo… mi sento sempre come un bersaglio” [MEI, 2022].
Pegasus: la privatizzazione della sorveglianza
Lo spyware Pegasus, sviluppato dall’azienda israeliana NSO Group, consente l’accesso remoto ai contenuti degli smartphone. Nel novembre 2021 Amnesty International e Citizen Lab hanno confermato che sei difensori dei diritti umani palestinesi — appartenenti a organizzazioni come Al-Haq e Bisan Center — erano stati hackerati con Pegasus [Amnesty, 2021].
Questi episodi mostrano come strumenti presentati come necessari alla “sicurezza” vengano usati anche per monitorare società civili e ONG.
Project Nimbus: Big Tech nell’occupazione
Nel 2021 Google e Amazon hanno firmato un contratto da 1,2 miliardi di dollari con il governo israeliano, noto come Project Nimbus. Secondo inchieste del Guardian e di Wired, l’accordo fornisce servizi cloud e strumenti di intelligenza artificiale destinati a enti governativi e militari [Guardian, 2021; Wired, 2022].
Gruppi di dipendenti delle due aziende hanno protestato pubblicamente, denunciando il rischio che la tecnologia contribuisca a rafforzare la sorveglianza sui palestinesi.
L’industria della sicurezza israeliana
Il giornalista Antony Loewenstein, nel libro The Palestine Laboratory (2023), descrive come l’occupazione funzioni da campo di prova permanente. Le tecnologie testate in Cisgiordania e Gaza vengono poi esportate come battle-tested (testate in combattimento) a governi e aziende di tutto il mondo.
Secondo Loewenstein, questa integrazione tra esercito, industria tecnologica e mercati internazionali ha reso Israele uno dei maggiori esportatori globali di strumenti di sorveglianza e armamenti.
Tecnocrazia e disumanizzazione
L’insieme di questi sistemi rappresenta un modello compiuto di controllo tecnocratico: il potere non appare come scelta politica, ma come esecuzione “neutrale” di dati e algoritmi. Come osserva Amnesty, il risultato è un meccanismo che automatizza e perpetua discriminazione e segregazione [Amnesty, 2023].
Conclusione
Le tecnologie oggi sperimentate nei Territori Occupati — dal riconoscimento facciale all’hacking degli smartphone — possono essere domani applicate a confini, quartieri e scuole in qualunque parte del mondo.
Come ammonisce ARTICLE 19 (2024), l’uso del riconoscimento facciale di massa è incompatibile con i diritti fondamentali e non può essere considerato “neutrale”. Chi controlla i dati controlla le persone.
[the same code goes here, but will be replaced dynamically]