ROMA – Fotografie di povertà estrema, bambini denutriti o sopravvissuti alla violenza sessuale, generate interamente dall’intelligenza artificiale, stanno invadendo i siti di foto stock e trovano spazio crescente nelle campagne delle principali Ong sanitarie. Un fenomeno che, secondo molti esperti, segna l’inizio di una nuova era del cosiddetto “poverty porn”, scrive il Guardian.
“Ovunque, le persone lo stanno utilizzando”, spiega al giornale inglese Noah Arnold, di Fairpicture, organizzazione svizzera che promuove l’uso etico delle immagini nel settore dello sviluppo globale. “Alcuni le impiegano apertamente, altri stanno sperimentando”.Il ricercatore Arsenii Alenichev, dell’Istituto di medicina tropicale di Anversa, ha raccolto oltre cento esempi di immagini sintetiche di “povertà estrema” usate da individui o Ong per campagne contro la fame o la violenza sessuale. In uno studio pubblicato su The Lancet Global Health, parla di “pornografia della povertà 2.0”: bambini con piatti vuoti, volti sporchi, terre aride, lacrime fotorealistiche. Scene costruite per suscitare pietà, non empatia.Le motivazioni sono economiche e pratiche. L’uso di immagini IA permette di evitare questioni legate al consenso e riduce i costi. “È chiaro che diverse organizzazioni stanno iniziando a considerare le immagini sintetiche perché sono economiche e non implicano problemi di autorizzazione”, afferma Alenichev.Su piattaforme come Adobe Stock e Freepik, digitando “povertà”, compaiono decine di foto generate artificialmente. Le descrizioni oscillano tra il paternalismo e il cliché: “bambino fotorealistico in un campo profughi”, “volontario bianco con bambini africani”. Le licenze si vendono per circa 60 sterline. “Sono immagini razzializzate e stereotipate. Non dovrebbero nemmeno essere ammesse”, denuncia il ricercatore. Il CEO di Freepik, Joaquín Abela, respinge le accuse: “La responsabilità è degli utenti, non delle piattaforme. Possiamo incoraggiare la diversità, ma non controllare ciò che il mercato chiede”.Anche organizzazioni di rilievo sono ricorse all’IA. Nel 2023 la filiale olandese di Plan International ha diffuso un video contro i matrimoni precoci che mostrava una bambina con un occhio nero, un uomo anziano e un’adolescente incinta, tutti creati artificialmente. Le Nazioni Unite hanno pubblicato un video con “ricostruzioni” digitali di violenze sessuali in Burundi, poi rimosso dopo le critiche. “Riconosciamo che mescolare immagini reali e generate artificialmente può compromettere l’integrità delle informazioni”, ha dichiarato un portavoce ONU.Kate Kardol, consulente per una Ong, parla di “un passo indietro doloroso”: “Abbiamo lottato per anni contro la pornografia della povertà, e ora la ritroviamo anche dove le persone non esistono”.
Le notizie del sito Dire sono utilizzabili e riproducibili, a condizione di citare espressamente la fonte Agenzia DIRE e l’indirizzo https://www.dire.it