OnlyDown: non esiste un limite alla morbosità, specie se c'è qualcuno pronto a monetizzarla.
Disgusto profondo.🤬
https://www.giovannicupidi.it/onlydown-finta-inclusione-ia-feticizzazione/
OnlyDown: la finta inclusione che diventa feticizzazione. Quando l’intelligenza artificiale sfrutta la disabilità - Giovanni Cupidi
Il fenomeno “OnlyDown” usa l’intelligenza artificiale per creare profili deepfake di donne con sindrome di Down, vendendo contenuti espliciti e alimentando la feticizzazione della disabilità. Un’allarmante deriva etica e sociale C’è una nuova, inquietante frontiera dello sfruttamento online. Si chiama “OnlyDown” e ha tutta l’apparenza dell’inclusione, ma in realtà nasconde una deriva etica profondamente pericolosa: la feticizzazione della disabilità. Dietro la maschera patinata di profili social apparentemente “positivi”, si nasconde un fenomeno allarmante in cui l’intelligenza artificiale viene utilizzata per creare donne con tratti tipici della sindrome di Down, mostrate in pose provocanti, il cui unico scopo è vendere contenuti espliciti e monetizzare la curiosità (o il feticismo) degli utenti. Come funziona OnlyDown? Gli ideatori di questi contenuti rubano immagini in rete — reali o semplicemente ispirate a volti autentici — e le “danno in pasto” a software di generazione AI, ottenendo così profili fasulli (deepfake) di giovani donne con sindrome di Down, apparentemente reali. Il risultato viene poi pubblicato su piattaforme come Instagram o TikTok, da cui si dirottano gli utenti su Telegram o direttamente su OnlyFans, dove i contenuti diventano ancora più espliciti e, ovviamente, a pagamento. Tra i casi più noti c’è quello di una fantomatica “Maria Dopari”, una sedicente influencer con sindrome di Down che ha rapidamente raggiunto quasi 150 mila follower su Instagram. Solo che Maria non esiste. È una creazione artificiale, una costruzione AI perfetta nel suo inganno, progettata per sembrare vera. Ma il suo volto, così come il suo corpo, è stato creato a tavolino da chi ha voluto capitalizzare sull’immagine della disabilità, trasformandola in merce da vendere. Il fenomeno è stato analizzato e denunciato da Matteo Flora, esperto di Sicurezza delle Intelligenze Artificiali, docente e divulgatore, che attraverso i suoi canali ha acceso un faro su quella che lui stesso definisce “una realtà molto più inquietante di quanto sembri”. Flora racconta che, inizialmente, il trend sembrava persino positivo: molte ragazze con sindrome di Down stavano utilizzando i social per raccontare la propria quotidianità, con semplicità e autenticità. Una finestra sull’inclusione. Ma dietro a questo movimento genuino, si è infilata un’ondata di fake: profili generati con IA, che imitano i tratti somatici delle persone con disabilità per sfruttarli in modo torbido. Le problematiche che emergono sono numerose e intrecciate: Matteo Flora ha già segnalato centinaia di contenuti e fatto rimuovere numerosi profili, tra cui proprio quello di Maria Dopari. Ma da solo non può bastare. Per questo ha lanciato un appello alle famiglie e alle associazioni che si occupano di disabilità: “Voi potete fare di più. Interfacciatevi direttamente con AGCOM, chiedete la rimozione dei contenuti, denunciate. Sarebbe un segnale forte di leadership e tutela, che potete e dovete rivendicare”. Un appello raccolto con convinzione da Gianfranco Salbini, presidente nazionale dell’Associazione Italiana Persone Down (AIPD). “Oggi, purtroppo, è diventato comune cercare visibilità online anche attraverso l’immagine dei propri figli – commenta – ma qui siamo davanti a un fenomeno ancora più grave: l’utilizzo dei deepfake per sfruttare l’immagine delle persone con disabilità. È fondamentale parlarne, anche se il rischio è quello dell’emulazione. Tacere sarebbe ancora peggio”. Il pericolo non sta soltanto nel contenuto in sé, ma nel messaggio che trasmette: la disabilità come categoria da desiderare, perché “diversa”, “esotica”, “innocente”. È una perversione mascherata da inclusione, che finisce per rafforzare gli stereotipi e i pregiudizi, anziché combatterli.Flora insiste: “L’intelligenza artificiale non è il nemico. Il problema è l’uso che ne facciamo. Se manca una regolamentazione adeguata e se le piattaforme non assumono responsabilità concrete, l’IA diventerà sempre più spesso lo strumento preferito da chi vuole violare etica, dignità e diritti”. È necessario, quindi, non solo aggiornare le leggi, ma soprattutto creare cultura. Serve educazione digitale nelle scuole, serve informazione trasparente per le famiglie, serve una consapevolezza collettiva che sappia riconoscere il pericolo anche quando si presenta con un volto sorridente e apparentemente innocuo su uno schermo.Parlarne è scomodo, ma urgente. Perché quello che accade oggi a persone con sindrome di Down potrebbe domani riguardare chiunque: bambini, anziani, persone LGBTQ+, minoranze etniche. La tecnologia, se lasciata senza guida, non distingue tra giusto e sbagliato. Sta a noi farlo. In conclusione, il fenomeno “OnlyDown” non è solo una deviazione del mercato del porno online, ma un campanello d’allarme fortissimo su quanto rapidamente la disabilità possa diventare bersaglio di nuove forme di sfruttamento. È tempo di intervenire, con strumenti giuridici, ma anche con una mobilitazione etica e sociale. Perché la dignità non è un filtro da applicare a una foto. È un diritto da difendere. Matteo Flora: ONLYDOWN, Deepfake e disabilità ISCRIVITI AL CANALE TELEGRAM ISCRIVITI AL CANALE WHATSAPP Articolo precedente: Torino Comics 2025: dove l’inclusione diventa gioco. La Città dell’Agenda della Disabilità tra realtà virtuale, empatia e tecnologia

