"anche il nulla è pur sempre qualcosa"
Anche il nulla è pur sempre qualcosa

La Polizia Usa l’IA per Creare Profili Falsi Sotto Copertura

Tabella dei contenuti

L’Impiego di Tecnologie AI da Parte delle Forze dell’Ordine

Recentemente, i dipartimenti di polizia situati nelle vicinanze del confine tra Stati Uniti e Messico hanno iniziato a investire ingenti somme di denaro in una tecnologia controversa e poco collaudata, che sfrutta profili online generati da intelligenza artificiale. Questa tecnologia ha l’obiettivo di interagire con e raccogliere informazioni su manifestanti universitari, attivisti politici considerati “radicalizzati”, nonché su presunti trafficanti di droga e di esseri umani. Le rivelazioni sono emerse grazie a documenti interni, contratti e comunicazioni ottenute da 404 Media tramite richieste di accesso ai registri pubblici.

Massive Blue e il Prodotto Overwatch

Massive Blue, un’azienda con sede a New York, è alla guida di questa iniziativa, commercializzando il suo prodotto chiamato Overwatch. Questo strumento è presentato come un “moltiplicatore di forza alimentato dall’intelligenza artificiale per la sicurezza pubblica”, capace di dispiegare agenti virtuali realistici per infiltrarsi e interagire con reti criminali su diverse piattaforme online. Secondo una presentazione ottenuta da 404 Media, Massive Blue offre ai poliziotti la possibilità di utilizzare queste identità virtuali per comunicare con sospetti attraverso messaggi di testo e social media.

Applicazioni e Preoccupazioni Etiche

Tra le applicazioni che Massive Blue elenca per Overwatch ci sono la sicurezza al confine, la protezione delle scuole e la lotta contro il traffico di esseri umani. Tuttavia, la tecnologia non ha ancora portato a arresti documentati, sollevando interrogativi sull’efficacia e sull’etica di tali strumenti di sorveglianza. Le preoccupazioni si intensificano in un contesto politico in cui l’amministrazione Trump ha revocato i visti a centinaia di studenti, molti dei quali hanno manifestato contro il conflitto in Gaza.

Identità Virtuali e Profili Sospetti

Le indagini di 404 Media hanno rivelato che le forze dell’ordine stanno finanziando un’azienda per aiutare a dispiegare bot alimentati da intelligenza artificiale sui social media, con l’intento di comunicare con persone sospettate di attività criminali, che vanno da reati sessuali violenti a manifestazioni politiche. Dave Maass, esperto in tecnologie di sorveglianza al confine per l’Electronic Frontier Foundation, ha sottolineato che l’idea di utilizzare un’intelligenza artificiale per impersonare qualcuno è un concetto già noto, ma si pone la questione su quale problema reale si stia cercando di risolvere.

Contratti e Investimenti Pubblici

Massive Blue ha siglato un contratto del valore di 360.000 dollari con la contea di Pinal, in Arizona, utilizzando fondi provenienti da un’iniziativa anti-traffico di esseri umani. Un rapporto della divisione acquisti della contea ha indicato che sono stati acquistati servizi di monitoraggio 24 ore su 24 su vari social media, oltre allo sviluppo e alla gestione di un’unità virtuale composta da un massimo di 50 identità AI. Al contrario, la contea di Yuma ha testato i servizi di Massive Blue con un contratto di 10.000 dollari nel 2023, ma non ha rinnovato l’accordo, ritenendolo inadeguato.

Mancanza di Risultati Concreti

Mike McGraw, cofondatore di Massive Blue, non ha fornito risposte dettagliate riguardo al funzionamento della sua azienda o ai dipartimenti di polizia con cui collabora. Ha però affermato che l’obiettivo primario è perseguire i criminali, mentre il portavoce della contea di Pinal ha confermato che la tecnologia non ha ancora portato a nessun arresto. Le indagini sono ancora attive e Massive Blue è solo uno degli strumenti utilizzati in queste operazioni.

Trasparenza e Riservatezza

Le agenzie di polizia hanno adottato misure per mantenere riservate le specifiche di Massive Blue. Durante le audizioni pubbliche sui fondi per il contratto, gli ufficiali hanno rifiutato di fornire dettagli sul prodotto, citando la necessità di non compromettere le indagini. Il Dipartimento della Pubblica Sicurezza dell’Arizona ha affermato di non avere informazioni specifiche su Overwatch, limitandosi a confermare che la contea stava implementando una tecnologia per identificare e risolvere casi di traffico di esseri umani.

Capacità Operative di Overwatch

Sebbene i documenti non descrivano ogni aspetto tecnico di Overwatch, forniscono una panoramica generale delle sue funzionalità. La compagnia afferma che il sistema utilizza immagini e testi generati da intelligenza artificiale per creare profili sui social media, capaci di interagire con sospetti di traffico di droga, di esseri umani e di armi. Queste identità virtuali possono anche comunicare attraverso piattaforme come Discord e SMS. Tuttavia, non è chiaro come Massive Blue identifichi i sospetti in base alle loro attività sui social media.

Esempi di Identità AI e Conversazioni

Un esempio di un’identità AI creata da Massive Blue è quella di Jason, un ragazzo di 14 anni di Los Angeles, descritto come timido e con difficoltà a interagire con le ragazze. La presentazione include conversazioni simulate tra questo persona e un adulto predatore, evidenziando la strategia di coinvolgimento attivo e passivo che le forze dell’ordine intendono utilizzare per raccogliere informazioni.

Riflessioni Finali sulle Tecnologie di Sorveglianza

L’implementazione di Overwatch da parte delle forze dell’ordine solleva interrogativi significativi sulla sorveglianza e sui diritti civili. La mancanza di risultati concreti e l’opacità riguardo al funzionamento del sistema pongono dubbi sull’efficacia e sull’appropriatezza di tali tecnologie. È fondamentale che le autorità considerino attentamente l’impatto di queste pratiche sulla libertà individuale e sull’integrità del processo investigativo.

Lascia un commento

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.

Attenzione: alcune funzionalità di questa pagina potrebbero essere bloccate a seguito delle tue scelte privacy: