L’AI si basa sulla sorveglianza di massa, avverte la boss di Signal

Gli strumenti di AI che elaborano numeri, generano testi e video e trovano schemi nei dati si basano sulla sorveglianza di massa ed esercitano un controllo preoccupante sulle nostre vite, dice Meredith Whittaker.

Gli strumenti di AI che elaborano numeri, generano testi e video e trovano schemi nei dati si basano sulla sorveglianza di massa ed esercitano un controllo preoccupante sulle nostre vite, ha detto giovedì ad AFP il capo dell’app di messaggistica criptata Signal.

Contrastando l’entusiasmo incondizionato al VivaTech di Parigi, la principale conferenza europea per startup dove gli attori del settore elogiano i meriti dei loro prodotti, Meredith Whittaker ha detto che le preoccupazioni sulla sorveglianza e quelle sull’AI erano “due interpretazioni della stessa cosa”.

Meredith Whittaker

“Le tecnologie di AI di cui stiamo parlando oggi si basano sulla sorveglianza di massa,” ha detto  Whittaker, che è presidente della Signal Foundation e fa parte del suo consiglio di amministrazione.

“Richiedono enormi quantità di dati che sono derivati di questo modello di business basato sulla sorveglianza di massa, nato negli anni ’90 negli Stati Uniti, e che è diventato il motore economico dell’industria tecnologica”.

Whittaker, che ha lavorato per anni per Google prima di aiutare a organizzare una protesta dei dipendenti nel 2018 per le condizioni di lavoro, ha fondato l’AI Now Institute presso la New York University nel 2017.

Ora si batte per la privacy e critica i modelli di business costruiti sull’estrazione dei dati personali.

Ed è chiara nel dire che non ha fiducia che l’industria dell’AI si stia sviluppando nella direzione giusta.

I sistemi di AI hanno fame di dati in ingresso, ma producono anche enormi quantità di dati.

Anche se sono errati, ha detto, questi output “hanno il potere di classificare, ordinare e dirigere le nostre vite in modi che dovrebbero preoccuparci altrettanto”.

Ha inoltre sottolineato i disequilibri di potere creati da un’industria controllata da “un pugno di giganti della sorveglianza” che sono “in gran parte irresponsabili”.

“La maggior parte di noi non è utente dell’AI,” ha detto Whittaker.”La maggior parte di noi è soggetta al suo utilizzo da parte dei nostri datori di lavoro, delle forze dell’ordine, dei governi, o di chiunque sia.

“Hanno i loro obiettivi, ma potrebbero non essere obiettivi che ci avvantaggiano o che avvantaggiano la società”. La leader di Signal ha spiegato che un esempio lampante è il modo in cui le aziende di AI affermano di aiutare a trovare soluzioni alla crisi climatica.

In realtà, ha detto, stavano prendendo soldi dalle compagnie di combustibili fossili e la loro tecnologia veniva utilizzata per trovare nuove risorse da estrarre.

“Perché, naturalmente, dove sono i ricavi? Non nel salvare il clima,” ha detto.

“Sono nei contratti massicci con BP, con Exxon, con altre grandi compagnie petrolifere e del gas”.

In definitiva, ha sostenuto che gli europei non dovrebbero pensare in termini di competere con le grandi aziende americane di AI.

Un’altra opzione potrebbe essere “ripensare una tecnologia che possa servire società più democratiche e che preservino maggiormente i diritti o società più pluralistiche”.

Fonte: AFP

Tag

Partecipa alla discussione