A MILANO UNA MOSTRA SULLA SORVEGLIANZA

   A Milano dal  12 settembre al 24 febbraio 2020  all’Osservatorio della Fondazione Prada si terrà una mostra da titolo significativo: Human Training. In sostanza è una mostra che svela la identità di sorvegliasti speciali dagli algoritmi e dalle tecnologie avveniristiche di riconoscimento facciale.[1]

   Il riconoscimento facciale è uno dei settori di applicazione dell’intelligenza artificiale con i più forti impatti sociali ed etici per gli esseri umani. I sistemi che sorreggono e rendono possibile l’applicazione di questa tecnologia sono, però, anche tra i più oscuri e il loro funzionamento può essere, spesso, estremamente poco trasparente. L’opacità del riconoscimento facciale è riflessa, in particolare, nella sostanziale impossibilità di vedere questa tecnologia all’opera e, di conseguenza, comprendere in che modo la sua intelligenza è in grado di vedere, comprendere gli esseri umani e assegnare loro delle categorie interpretative.

La mostra Training Humans  di Kate Crawford e  Trevor Paglen rispettivamente accademica dell’ Ai Now Institute e uno degli artisti che meglio hanno esplorato il rapporto tra umanità e tecnologia, va a insinuarsi in quella oscurità, con l’obiettivo di gettare luce sull’origine, il funzionamento e i rischi insiti nel riconoscimento facciale.

   La mostra ha l’obiettivo di mostrare come viene istruita l’intelligenza artificiale che fa funzionare i sistemi di facial recognition, concentrandosi sulle immagini di training che, di fatto, insegnano alle macchine a riconoscere il mondo sulla base di dati di input da paragonare a ciò che esse vedono. Paglen e Krawford affrontano il tema da un punto di vista storico, mostrando l’evoluzione della tecnologia e dei database utilizzati per insegnare ai sistemi di facial recognition a etichettare la realtà e gli umani, dai primi tentativi sperimentali della Cia negli anni ‘60, passando per i database basati sulle immagini dei carcerati, arrivando all’epoca attuale, dove i maggiori sistemi di questo tipo sono formati sulla base di volti e scatti liberamente messi in circolazione dagli utenti di Internet sulle piattaforme maggiori. Complessivamente, la mostra espone oltre  60mil a immagini illustrando in modo efficace come l’accresciuta sofisticatezza della tecnologia ne abbia anche fatto emergere i tratti più controversi, a cominciare dai bias e dai pregiudizi inevitabilmente inseriti nei database utilizzati per nutrire l’intelligenza artificiale, un tema che Trevor Paglen e Kate Crawford hanno trattato al  Wired Next Fest nel 2018.

   Un elemento che emerge in modo palese dalla mostra è come l’intelligenza artificiale abbia, in realtà, molti elementi che sono espressamente umani, a cominciare dalla forza lavoro che in molti casi è necessaria per nutrirla.  “Il modo in cui questi set di training sono stati creati è profondamente umano. Non solo ci sono gli scienziati che si occupano di intelligenza artificiale a decidere da dove prendere le immagini, ma c’è anche il fatto che il grosso del lavoro di categorizzazione di tutte queste immagini può essere svolto dagli umani che lavorano, per esempio, per Mechanical Turk di Amazon”, spiega Kate Crawford a Wired“Su molti livelli”, continua l’accademica australiana, “si nota come si utilizzi di fatto il lavoro umano per creare dei sistemi che sembrano sovrannaturali o più oggettivi di come l’intelligenza umana sia mai stata. Il nostro progetto mostra invece come questi sistemi siano l’opposto di neutrali e oggettivi e come siano, al contrario, profondamente soggettivi, umani e in alcuni casi anche stereotipati o discriminatori. La domanda che dobbiamo farci, guardando anche oltre la  questione dei bias  di programmazione, è anche: a cosa danno potere questi sistemi? Chi li possiede? E in che modo questi sistemi servono i loro interessi?”.[2]

   Il focus dell’analisi di Paglen e Crawford è sull’esposizione di cosa costruisce di fatto il facial recognition oggi e sulla base di cosa questi sistemi imparano a conoscere il mondo e a mettergli delle etichette. Si tratta, metaforicamente, di un lavoro di archeologia, secondo Trevor Paglen: “il lavoro di scavo che facciamo dentro questi sistemi serve a vedere le ossa che li costituiscono e cosa è costruito attorno ai dataset. Questo è importante perché ogni immagine è coinvolta nella creazione di queste strutture. Occorre quindi risalire al fondamento di come certe forme di significato vengano costruite all’interno un sistema tecnico”, spiega l’artista americano. “Il problema non è, di per sé, che questi sistemi siano stati concettualizzati originariamente dalla Cia e dall’intelligence“, spiega Paglen, “il punto sono le forme di potere per le quali sono stati creati. Quelle non cambieranno nel corso del tempo, perché si tratta del loro stesso fondamento”.

   La mostra ha anche l’obiettivo di mettere in guardia il pubblico sugli sviluppi potenzialmente più pericolosi di queste tecnologie e del potenziale impatto sociale dell’Ia,[3] che, sta trovando applicazione in ambiti sociali molto sensibili. “L’obiettivo di questa mostra è guardare al DNA di diverse piattaforme di Ai. Guardiamo alla classificazione delle persone, al riconoscimento facciale e a quello degli stati d’animo basato sulle immagini”, spiega Crawford, “quello che è interessante e preoccupante è pensare che queste logiche vengano applicate a settori sensibili come l’educazione o la giustizia. In ogni spazio in cui questi sistemi trovano un uso, si vede applicata all’umanità la stessa visione, spesso riduttiva. Questo potrebbe cambiare sensibilmente la relazione tra uno studente e il suo insegnante, tra un dipendente e il suo capo o l’esperienza di un manifestante in strada. Tutti questi rapporti sono destinati a cambiare, per via dei significati che vengono dati loro da questa tecnologia”.

   Training Humans guarda soprattutto in prospettiva, e mira a mostrare non solo come le macchine vedano e classifichino noi, ma a insegnare agli umani come vedere e interpretare quella visione, per capire in che modo trovare uno spazio al suo interno, un modo di conviverci e, potenzialmente, fermarne l‘impatto trasformativo. Come chiosa Kate Crawford: “la più grande trasformazione potenziale insita in questi sistemi è pensare che si possano cambiare cosa significhino le relazioni sociali e come queste funzionino”.

   Io personalmente ritengo che il problema vero sia che la scienza non sia più asservita alle classi dominanti ma che sia al servizio delle masse, che non abbia più come obiettivo il supporto alla valorizzazione del Capitale ma il benessere delle masse popolari.


[1] https://www.wired.it/play/cultura/2019/09/12/training-humans-paglen-crawford-fondazione-prada-mostra/

[2]                                            C.s.

[3] È evidente che l’espansione delle tecnologie invasive sta generando preoccupazioni in diversi strati sociali

~ di marcos61 su ottobre 4, 2019.

Una Risposta to “A MILANO UNA MOSTRA SULLA SORVEGLIANZA”

  1. […] IN MAILAND EINE AUSSTELLUNG ÜBER ÜBERWACHUNG […]

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...

 
%d blogger hanno fatto clic su Mi Piace per questo: