“TRAINING HUMANS”
UNA MOSTRA DI KATE CRAWFORD E TREVOR PAGLEN,
ALL’OSSERVATORIO FONDAZIONE PRADA A MILANO
DAL 12 SETTEMBRE 2019 AL
24 FEBBRAIO 2020
Fondazione Prada presenta “Training Humans”
una mostra concepita da Kate Crawford e Trevor Paglen, nella sede di Osservatorio
dal 12 settembre 2019 al 24 febbraio 2020
“Training Humans” è la prima grande mostra fotografica dedicata a immagini di training:
repertori di fotografie utilizzate dagli scienziati per insegnare ai sistemi di intelligenza
artificiale (IA) come “vedere” e classificare il mondo. In questa mostra Crawford e Paglen
esplorano l’evoluzione delle collezioni di immagini di training dagli anni Sessanta a oggi.
La loro ricerca evidenzia come soggetti pubblici e privati impiegano le immagini personali
condivise online come materia prima per la classificazione e la sorveglianza degli individui. Il
pubblico ha l’opportunità di osservare dall’interno le tecnologie di intelligenza artificiale che
si sono diffuse nella nostra società come il riconoscimento facciale e dell’andatura, la
sorveglianza biometrica e anche la mappatura delle emozioni.
Questa mostra vuole aprire le scatole nere dell’intelligenza artificiale. “Training Humans”
affronta i preconcetti, le supposizioni, gli errori e le posizioni ideologiche all’interno di queste
tecnologie. Rivelando come i sistemi di intelligenza artificiale sono stati concepiti negli ultimi
sessant’anni, Crawford e Paglen mostrano come gli attuali strumenti continuano pratiche di
classificazione sociale, sorveglianza e segmentazione e come queste riecheggiano la
frenologia e l’eugenetica del passato.
Come afferma Trevor Paglen, “quando abbiamo iniziato a elaborare l’idea della mostra, oltre
due anni fa, volevamo raccontare la storia delle immagini utilizzate per il ‘riconoscimento’ di
esseri umani nel settore della computer vision e dei sistemi di intelligenza artificiale. Non ci
interessavano né la versione inflazionata dell’IA applicata al marketing né le favole distopiche
sui robot del futuro”. Kate Crawford aggiunge, “volevamo trattare direttamente le immagini
che formano i sistemi di intelligenza artificiale e prenderle sul serio come parte di una cultura
in rapida evoluzione. Questi materiali visivi rappresentano la nuova fotografia vernacolare
che guida la visione artificiale. Per verificare il loro funzionamento, abbiamo analizzato
centinaia di set di immagini di training per capire i processi interni di questi ‘motori del
vedere'”.
Il progetto interroga lo stato attuale dell’immagine nell’intelligenza artificiale e nei sistemi
algoritmici, dall’istruzione e la sanità alla sorveglianza militare, dall’applicazione della legge e
la gestione delle risorse umane al sistema di giustizia penale. In particolare “Training
Humans” esplora due tematiche chiave: la rappresentazione, l’interpretazione e la
codificazione degli esseri umani attraverso dataset di training e le modalità con cui i sistemi
tecnologici raccolgono, etichettano e utilizzano questi materiali. Quando la classificazione di
esseri umani attraverso l’intelligenza artificiale diventa più invasiva e complessa, i pregiudizi e
le implicazioni politiche presenti al loro interno appaiono più evidenti. Nella computer vision e
nei sistemi di IA i criteri di misurazione si trasformano facilmente, ma in modo nascosto, in
strumenti di giudizio morale.
La mostra è concepita come una ricostruzione storica a partire dalle immagini utilizzate nei
primi esperimenti in laboratorio di riconoscimento facciale computerizzato, finanziati dal 1963
dal Central Intelligence Agency (CIA) negli Stati Uniti. Negli anni Novanta l’ufficio del
programma di sviluppo per le tecnologie antidroga del Ministero della difesa statunitense ha
sviluppato una generazione più avanzata di sistemi di computer vision. Per il database Face
Recognition Technology (FERET) ha creato una raccolta di ritratti di 1.199 persone per un
totale di 14.126 immagini con lo scopo di ottenere un “benchmark standard” che avrebbe
permesso ai ricercatori di sviluppare algoritmi basandosi su un database comune di
immagini.
La diffusione di Internet e dei social media ha generato un aumento esponenziale di immagini
disponibili. I ricercatori nel campo dell’IA hanno smesso di usare collezioni di immagini di
proprietà del governo, come foto segnaletiche dell’FBI di detenuti deceduti, cominciando a
raccogliere fotografie dal web. In breve tempo questa pratica è diventata comune e molte
persone nel settore dell’IA hanno iniziato ad attingere da milioni di immagini disponibili
pubblicamente senza chiedere il permesso o il consenso ai fotografi o ai soggetti ritratti.
L’assegnazione di etichette a queste immagini, spesso effettuata in laboratori o dai
dipendenti di Amazon Mechanical Turk, produce un sistema di classificazione delle persone
in base alla razza, al genere, all’età, all’emozione e talvolta ai tratti caratteriali. Questo
processo ha delle implicazioni politiche chiare e durevoli nel tempo perché rappresenta la
continuazione della storia oscura dei sistemi post-coloniali e razzisti di segmentazione
demografica.
Un altro centro d’interesse per Crawford e Paglen sono i sistemi di classificazione basati
sugli affetti e le emozioni e supportati dalle teorie molto criticate dello psicologo Paul Ekman,
secondo il quale la varietà dei sentimenti umani può essere ridotta a sei stati emotivi
universali. Queste tecnologie d’intelligenza artificiale misurano le espressioni facciali delle
persone per valutare una molteplicità di fattori: la loro salute mentale, la loro affidabilità
come possibili nuovi assunti o la loro tendenza a commettere atti criminali. Queste tipologie
di classificazione hanno raggiunto il loro massimo sviluppo con il dataset di training
ImageNet (2009), descritto dai suoi ideatori come un tentativo di “mappare l’intero universo
di oggetti”. Esaminando le immagini di questa raccolta e i criteri con cui le fotografie
personali sono state classificate, ci si confronta con due interrogativi essenziali: quali sono i
confini tra scienza, storia, politica, pregiudizio e ideologia nell’intelligenza artificiale? Chi ha il
potere di costruire questi sistemi e di trarne benefici?
Come sottolinea Paglen, “il progetto mostra come queste immagini facciano parte di una
lunga tradizione che consiste nel raccogliere immagini delle persone senza il loro consenso,
al fine di classificarle, segmentarle e spesso ricondurle a stereotipi attraverso modalità che
evocano il passato coloniale”. Crawford conclude: ‘’un’asimmetria di potere è propria di
questi strumenti. La nostra speranza è che Training Humans segni il punto di partenza per
iniziare a ripensare questi sistemi e per comprendere in modo scientifico come ci vedono e ci
classificano”.
La mostra è accompagnata da una pubblicazione illustrata della serie “Quaderni”,
pubblicata da Fondazione Prada, che include una conversazione tra Kate Crawford e Trevor
Paglen sui complessi temi affrontati nel loro progetto