Valentina Tomirotti, foto a sinistra giornalista e attivista del mondo disability, racconta un episodio che apre
interrogativi profondi sul rapporto tra tecnologia, inclusione e rappresentazione dei corpi. Dopo aver caricato una propria fotografia su un’app diventata virale sui social, incuriosita dalla promessa di migliorare immagini vecchie o sfocate, ha ottenuto un risultato che definisce “agghiacciante”.
L’intelligenza artificiale non si è limitata a ottimizzare la qualità della foto: ha cancellato completamente la sua disabilità fisica e motoria, eliminando la carrozzina e modificando la sua conformazione corporea. Nelle immagini generate, il suo corpo è stato “normalizzato”, reso filiforme, privo di quei tratti che fanno parte della sua identità.
Secondo Tomirotti, non si tratta di un semplice errore tecnico ma di un segnale più ampio. L’algoritmo, addestrato su milioni di immagini provenienti dal web, tende a riprodurre e rafforzare standard di bellezza stereotipati, spesso escludendo o invisibilizzando la disabilità. Un meccanismo che rischia di alimentare modelli culturali pericolosi, dove ciò che esce dalla norma viene corretto o cancellato.
La giornalista sottolinea come il problema si sviluppi su due livelli. Da un lato quello personale: per chi fatica ad accettare la propria immagine o vive una percezione distorta di sé, vedere una versione “aggiustata” e normalizzata può avere effetti devastanti sull’autostima. Dall’altro quello sociale: la disabilità è ancora poco raccontata e spesso marginalizzata nello spazio pubblico, e un’intelligenza artificiale che elimina sedie a rotelle o modifica i corpi contribuisce a rafforzare questa invisibilità.
Tomirotti evidenzia come gli algoritmi riflettano inevitabilmente l’immaginario collettivo da cui sono stati alimentati. Se i database sono composti prevalentemente da immagini che privilegiano corpi conformi a determinati canoni estetici, il risultato sarà una tecnologia che replica quegli stessi pregiudizi.
La sua denuncia non è una battaglia contro l’innovazione tecnologica, ma un invito a interrogarsi sulla direzione che si sta prendendo. “Io non ho bisogno di essere ritoccata per esistere. La mia immagine reale non è un errore”, afferma, sollevando una domanda più ampia: che tipo di società stiamo costruendo se la diversità viene percepita come qualcosa da correggere?
L’ALGORITMO E LO SGUARDO: LA SFIDA DELL’INCLUSIONE NELL’ERA DELL’INTELLIGENZA ARTIFICIALE
La vicenda raccontata da Valentina Tomirotti non riguarda soltanto una fotografia modificata. È lo specchio di una tensione culturale che attraversa il nostro tempo: il conflitto tra progresso tecnologico e rappresentazione autentica della realtà.
L’intelligenza artificiale viene spesso descritta come neutrale, oggettiva, capace di analizzare dati senza pregiudizi. Eppure ogni algoritmo nasce da scelte umane: dai dataset selezionati, dai parametri impostati, dalle priorità stabilite in fase di progettazione. Se l’immaginario dominante è costruito su standard ristretti di bellezza e normalità, la tecnologia non farà che amplificarli.
Il rischio non è soltanto estetico. Quando un sistema “aggiusta” un corpo disabile, il messaggio implicito è che quel corpo sia un errore, una deviazione da correggere. È una forma sottile ma potente di esclusione, che può incidere sulla percezione individuale e collettiva della diversità.
In una società che fatica ancora a rappresentare pienamente la pluralità dei corpi e delle esperienze, l’IA diventa un moltiplicatore di ciò che già esiste. Se la disabilità è poco visibile nei media, negli spazi pubblici e nelle narrazioni dominanti, rischia di esserlo ancora meno nei mondi digitali generati dagli algoritmi.
La questione sollevata da Tomirotti invita a una riflessione più ampia: l’innovazione non può essere separata dall’etica. Investire risorse nello sviluppo tecnologico significa anche interrogarsi su inclusione, rappresentazione e responsabilità sociale. Non basta rendere le immagini più nitide o più “belle”; occorre chiedersi quali corpi e quali storie stiamo scegliendo di mostrare.
Forse la vera rivoluzione non sta nel perfezionare i volti nelle fotografie, ma nel cambiare lo sguardo con cui osserviamo la realtà. Accettare la diversità non come eccezione, ma come parte costitutiva dell’esperienza umana.
Perché un algoritmo può riflettere i pregiudizi di una società, ma può anche diventare uno strumento di trasformazione. Dipende dalle scelte che compiamo oggi, dal coraggio di includere, dalla volontà di costruire un futuro in cui nessuno debba essere “corretto” per essere riconosciuto.
Nostra patria è il mondo intero e nostra legge è la libertà
Cerca nel blog
Visualizzazione post con etichetta la Ai cancella le dversità. Mostra tutti i post
Visualizzazione post con etichetta la Ai cancella le dversità. Mostra tutti i post
Iscriviti a:
Commenti (Atom)
Paralimpiadi, i trentini Orietta Bertò e Paolo Ioriatti protagonisti nel wheelchair curling:
in attesa delle paraolimpiadi ecco la storia dei da dolomiti.it trentini Orietta Bertò e Paolo Ioriatti protagonisti nel whe...
-
Come già accenbato dal titolo , inizialmente volevo dire Basta e smettere di parlare di Shoah!, e d'aderire \ c...
-
iniziamo dall'ultima news che è quella più allarmante visti i crescenti casi di pedopornografia pornografia...
-
in tempi di bunga bunga e meretricio sempre obbligato o ricattatorio sempre più incalzante e diffuso voglio raccont...