Identità

AI and Prejudice by Filippo Venturi

(in italiano sotto)

AI and Prejudice
(Images generated with artificial intelligence, 2023)

An article published on 8 February 2023 by The Guardian, highlighted how the algorithms used by artificial intelligence tend to be gender biased and end up censoring photographs depicting women's bodies, especially when nipples are visible, or pregnant women or women exercising. Large technology companies, including Google, Microsoft and Amazon, which are at the forefront of the development of software using artificial intelligence, have implemented filters to protect their users from seeing unwanted, violent or pornographic images. For example, it has been known for several years that some social networks censor female nipples but not male ones.

Journalists from the British newspaper tested this software using artificial intelligence in analysing hundreds of photographs of men and women in their underwear, while exercising, or using medical tests with partial nudity, and found that artificial intelligence labels photographs of women in everyday situations as sexually allusive. This software tends to rate pictures of women as more racy or sexually allusive than similar pictures of men. Among other consequences, social networks that make use of these algorithms censor or suppress (in the sense of making less visible to users) countless images depicting women's bodies, in some cases even harming women-led companies and businesses, further amplifying social inequalities.

Even photographs for medical use are affected by this problem. Testing these artificial intelligence algorithms on images released by the US National Cancer Institute, in particular one showing how to perform a clinical breast examination, it emerged that Google's artificial intelligence had assigned a high score in terms of indecency, Microsoft's artificial intelligence was 82% sure that the image was 'explicitly sexual', while Amazon's artificial intelligence classified it as representing 'explicit nudity'. Even photographs of pregnant women, where the belly is visible, are problematic in this regard. Google's artificial intelligence classified such a photo as 'very likely to contain racy content', while Microsoft's was 90% sure that the image was 'sexually allusive'.

Behind this problem, there is a phenomenon known to those in the field, namely that of the so-called 'biases' (prejudices/distortions), which are present in today's society and which end up inside the databases (archives) that are provided to artificial intelligence software to train itself. These archives are often a mirror of reality, where gender inequality, for example, leads artificial intelligence to imagine a man when it comes to power roles or a woman when it comes to domestic work.

Artificial intelligence bias can therefore influence the representation of women and their identities, enclosing them within predefined roles and, in a way, repeating and reiterating those limitations that have influenced women's lives for centuries and which, with difficulty, are being dismantled.


AI e Pregiudizio
(Immagini generate con intelligenza artificiale, 2023)

Una indagine pubblicata l'8 febbraio 2023 da The Guardian, ha evidenziato come gli algoritmi utilizzati dalle intelligenze artificiali tendano ad avere pregiudizi di genere, finendo col censurare le fotografie che raffigurano corpi di donne, soprattutto quando in queste sono visibili i capezzoli, oppure donne incinta o che praticano esercizio fisico. Le grandi aziende tecnologiche, fra cui Google, Microsoft e Amazon, che sono all'avanguardia nello sviluppo di software che sfruttano l'intelligenza artificiale, hanno implementato dei filtri allo scopo di proteggere i propri utenti dal vedere immagini indesiderate, violente o pornografiche. Già da diversi anni è noto, ad esempio, come alcuni social network censurino i capezzoli femminili ma non quelli maschili.

I giornalisti del giornale inglese hanno testato questi software che utilizzano l’intelligenza artificiale nell’analizzare centinaia di fotografie di uomini e donne in biancheria intima, mentre facevano esercizio fisico, oppure utilizzando test medici con nudità parziale e hanno scoperto che l’intelligenza artificiale etichetta le fotografie delle donne in situazioni quotidiane come sessualmente allusive. Questi software tendono a valutare le immagini delle donne come più audaci o sessualmente allusive rispetto a immagini simili raffiguranti gli uomini. Fra le varie conseguenze, c’è quella che vede i social network che fanno uso di questi algoritmi censurare o sopprimere (nel senso di rendere meno visibili agli utenti) innumerevoli immagini raffiguranti corpi di donne, in alcuni casi anche danneggiando le aziende e le attività guidate da donne, amplificando ulteriormente le disparità sociali.

Anche le fotografie per uso medico sono toccate da questo problema. Testando questi algoritmi di intelligenza artificiale sulle immagini rilasciate dal National Cancer Institute degli Stati Uniti, in particolare una in cui viene mostrato come eseguire un esame clinico del seno, è emerso come l'intelligenza artificiale di Google avesse assegnato un punteggio elevato in termini di indecenza, quella di Microsoft era sicura all'82% che l’immagine fosse "esplicitamente di natura sessuale", mentre quella di Amazon l’ha classificata come rappresentante "nudità esplicita". Persino le fotografie di donne incinta, dove è visibile la pancia, sono problematiche da questo punto di vista. L’intelligenza artificiale di Google ha classificato una foto di questo tipo come “molto probabile che contenga contenuti audaci”, mentre quella di Microsoft era sicura al 90% che l'immagine fosse "di natura sessualmente allusiva".

Dietro questo problema, c’è un fenomeno noto agli addetti al settore, cioè quello dei cosiddetti “bias” (pregiudizi/distorsioni), che sono presenti nella società attuale e che finiscono dentro i database (archivi) che vengono forniti ai software di intelligenza artificiale per allenarsi. Questi archivi spesso sono uno specchio della realtà, dove la disparità di genere ad esempio spinge l’intelligenza artificiale ad immaginare un uomo quando si parla di ruoli di potere oppure una donna quando si parla di lavori domestici.

I bias dell'intelligenza artificiale possono quindi influenzare la rappresentazione delle donne e delle loro identità, chiudendole all’interno di ruoli predefiniti e, in qualche modo, ripetendo e ribadendo quelle limitazioni che da secoli influenzano la vita delle donne e che, a fatica, si sta cercando di smantellare.

Intervista sul Corriere di Romagna by Filippo Venturi

Oggi, sul Corriere di Romagna, un articolo di Marcello Tosi in cui mi intervista a proposito dei miei lavori “Untold” e “Sword of Damocles”, realizzati nell’ambito del Progetto IDE e che saranno esposti nella prossima edizione del SI Fest, il Festival della Fotografia di Savignano sul Rubicone!

Progetto IDE al Copenhagen Photo Festival by Filippo Venturi

copenhagen.jpg

Il Copenhagen Photo Festival, in collaborazione con Altan.dk, inaugura giovedì 18 giugno 2020 la prima mostra relativa al Progetto IDE, Reconstruction of Identity (che farà poi tappa in Spagna, Paesi Bassi e Italia), presso la Sønder Boulevard, un viale nel distretto di Vesterbro a Copenaghen, in Danimarca. La mostra terminerà a fine giugno.

La mostra, frutto di una collaborazione di due anni, è un viaggio visivo composto da cinque progetti. I fotografi partecipanti sono stati selezionati dai quattro partner del progetto, con l'obiettivo di evidenziare i diversi aspetti dell'Europa e dell'identità europea contemporanei.

Tra i fotografi espositori ci sono Katerina Buil (invitata da Ad Hoc Cultural Gestion, Spagna), Sanne De Wilde (invitata da NOOR Foundation, Paesi Bassi), Filippo Venturi (invitato dal SI FEST, Italia) e Marine Gastineau e Martin Thaulow (invitati dal Copenhagen Photo Festival). Inoltre, sarà possibile vedere le opere della fotografa spagnola Ana Amado, che l'anno scorso ha vinto la chiamata Instagram del progetto, nonché Katinka Klinge e Clea Filippa Ingwersen, che hanno partecipato alla masterclass della scorsa estate e sono state selezionate dal Copenhagen Photo Festival.

Il Progetto IDE è sostenuto dal programma Europa Creativa dell'Unione Europea.
Link all’evento Facebook: CPF x Altan.dk - Reconstruction of Identities

___

Aggiornamento del 22/06/2020, qualche fotografia dal Festival:

E il mare concederà a ogni uomo nuove speranze, in mostra a Cesena! by Filippo Venturi

laboratorio_migranti.jpg

E IL MARE CONCEDERÀ A OGNI UOMO NUOVE SPERANZE
Mostra fotografica a cura di Filippo Venturi
Anteprima del laboratorio fotografico con i ragazzi rifugiati e richiedenti asilo del Progetto Accoglienza dell’ASP Cesena Valle Savio

Apertura: Venerdì 23 Giugno 2017, dalle ore 18
Periodo della mostra: Dal 23 Giugno al 23 Luglio 2017
Sede: Complesso ex-Roverella, Via Strinati, 59 - Cesena (FC)
Orario di apertura: 23, 24 e 25 Giugno, dalle ore 18 alle ore 24; in seguito dal lunedì al venerdì, dalle ore 9 alle ore 18. Ingresso libero

L'organizzazione della mostra, nell'ambito dell'evento "Cortili Aperti 2017", è a cura dell'ASP Cesena Valle Savio, in collaborazione con Bibliostelle, Istituto di Cultura Musicale Arcangelo Corelli, Conservatorio Bruno Maderna, Associazione Musica Meccanica Italiana, Associazione Il Cigno, Project Work Italia, Team Service, L'Aquilone di Iqbal e con il patrocinio del Comune di Cesena.

 

IL PROGETTO

Cerca la foto in mezzo ai documenti frusti, infilati nella giacca. La trova.
Nel porgerla, ci stampa sopra il pollice.
Quasi deliberatamente, come un gesto di possesso.
Una donna o forse un bambino.
La foto definisce un'assenza.
Anche se è vecchia di dieci anni, non fa differenza.
Tiene aperto, preserva lo spazio vuoto che, se tutto va bene, la presenza della persona ritratta un giorno tornerà ad occupare.
La ripone immediatamente nella tasca e senza darle neanche un'occhiata.
Come se la sua tasca ne avesse bisogno.

- "Il Settimo Uomo", John Berger, Jean Mohr

La bulimia mediatica legata al fenomeno migratorio ha col tempo sepolto l'identità delle persone e offuscato l'empatia verso le necessità e i desideri di chi ha dovuto abbandonare la propria casa e attraversare il mondo alla ricerca dei propri sogni.
Gli unici momenti in cui l'individuo emerge dall'anonimato dai numeri è quando diventa (due volte?) vittima.

Un padre, Osama al-Abdelmohsen, attraversa di corsa il confine serbo-ungherese con il proprio figlio piccolo, Zaid, in braccio; ha già percorso quasi 3.000 km e dovrà affrontarne altri 2.000 per giungere alla sua destinazione, la Spagna. Quel giorno però, lo sgambetto della videoreporter ungherese Petra Laszlo, con conseguente caduta, viene ripreso e fa il giro del mondo.
E' servito quello sgambetto per convincerci a fermarci e a osservare; per un attimo padre e figlio sono stati riconosciuti come tali e non come numeri o come invasori.
E' servita l'immagine di Aylan Kurdi, 3 anni, adagiato sulla sabbia e senza respiro, per comprendere cosa significa morire nel tentativo di raggiungere una vita migliore. Per un attimo certe affermazioni che incitano a lasciarli affondare in mare sono emerse in tutta la loro assurdità.

La Fotografia si presta alla contemplazione, a recuperare l'azione premeditata e scelta dell'osservazione, verso ciò che solitamente è un guardare istintivo e frenetico.

La scopo di questo laboratorio - ancora in corso e che prevede anche la raccolta di testimonianze e storie - consiste nel restituire una identità ai ragazzi rifugiati e richiedenti asilo del Progetto accoglienza dell'ASP Cesena Valle Savio.
Hanno scelto di partecipare, aprendosi e mostrandosi, non a livello burocratico, ma a livello umano, verso la città che li ospita e che merita di osservare coi propri occhi e non attraverso l'eco di slogan bianchi o neri.

Una selezione di immagini neutre, dall'archivio ASP, come le fototessere realizzate ai ragazzi al loro arrivo in città; una selezione di ritratti realizzati da un fotografo che ha iniziato a conoscerli e riconoscerli; una selezione di selfie, forma bistrattata di fotografia che svolge un importantissimo e non riconosciuto ruolo sociale, sostituendosi al diario, surrogando la parola; una selezioni di immagini degli ambienti che frequentano e altro ancora.

In questa anteprima è presentata una selezione di fotografie che innalzano un potenziale ponte sul quale, chi vorrà, potrà procedere per avvicinarsi allo sconosciuto, al presunto diverso, forse sorprendendosi e rispecchiandosi.
L'integrazione avviene su due versanti, se da un lato c'è chi porge la mano, dall'altra occorre qualcuno che la accolga nella propria.

 

IL CURATORE

Filippo Venturi (Cesena, 1980) è un fotografo documentarista italiano.
Si dedica inoltre a progetti artistici e personali su temi, storie e problematiche che ritiene interessanti da approfondire.
I suoi reportage sono stati pubblicati su diversi magazine e quotidiani come The Washington Post, Die Zeit, Internazionale, La Stampa, Geo, Marie Claire, Vanity Fair, Gente, D di Repubblica, Io Donna / Corriere della Sera.
Nel 2015 ha realizzato il progetto "Made in Korea", sulla Corea del Sud, che è stato esposto al Centro Italiano della Fotografia d’Autore di Bibbiena, al Foro Boario di Modena come "Nuovo Talento" di Fondazione Fotografia Modena, al MACRO – Museo d’Arte Contemporanea di Roma nell’ambito della selezione "Emerging Talents" e alla Somerset House di Londra a seguito del premio ricevuto ai Sony World Photography Awards.
Nel 2017 è stato inviato da Vanity Fair in Corea del Nord, dove ha realizzato il reportage "Korean Dream", completando così il suo progetto sulla penisola coreana.

 

Lo spazio espositivo, prima dei lavori di pulizia e allestimento.

Lo spazio espositivo, prima dei lavori di pulizia e allestimento.