Alerta global: la IA ya está vulnerando el consentimiento y la privacidad de mujeres e infancias
Actualizado el 15/01/2026.
Desde hace semanas, la red social
X (antes Twitter), dirigida por Elon Musk, se encuentra en el centro de una polémica que va mucho más allá de una discusión tecnológica. Lo que está en juego es la
dignidad digital, los derechos fundamentales y la seguridad de millones de personas frente al avance descontrolado de la Inteligencia Artificial.Todo comenzó cuando la plataforma anunció que las imágenes que las usuarias suben podrían ser utilizadas por terceros. Esto supuso un golpe directo al control que cada persona tiene sobre su propia identidad digital y sobre sus creaciones. Diseñadoras, ilustradoras y creadoras de contenido comenzaron a migrar a otras plataformas buscando algo tan básico como el derecho a decidir qué sucede con su obra y con su imagen.Pero el problema se volvió mucho más grave al inicio de este año 2026, cuando se multiplicaron los casos en los que usuarios solicitan a la IA
Grok que modifique imágenes de mujeres reales —famosas o no— para mostrarlas con ropa sugerente, con poca ropa o directamente desnudas. Todo esto ocurre
sin consentimiento, sin filtros efectivos y sin consecuencias visibles.
Libertad de expresión, responsabilidad civil y deber empresarial
Surge entonces una pregunta inevitable: ¿hasta dónde llega la libertad de expresión y el uso de la IA, y dónde comienza la responsabilidad?
Algunas personas intentan justificar esta situación comparándola con el uso de Photoshop. Sin embargo, esa comparación no resiste análisis. Adobe crea un editor de imágenes; no desarrolla un sistema diseñado para sexualizar personas reales a pedido de cualquiera ni para automatizar ese daño. En el caso de Grok, para que estas prácticas sean posibles debe existir un algoritmo que lo permita, que no bloquee solicitudes claramente dañinas y que carezca de filtros de seguridad eficaces. Allí la responsabilidad deja de ser individual y pasa a ser estructural.
Cuando una mujer descubre que su imagen fue transformada en contenido sexual sin su consentimiento, no se trata de una broma ni de una expresión artística. Estamos frente a una vulneración de la privacidad, de los derechos humanos básicos y, en muchos países, de la ley. Existe una responsabilidad civil directa de quienes solicitan ese contenido, pero también una responsabilidad enorme de la empresa que diseñó y liberó una herramienta sin controles adecuados.
La omisión de los Estados y el costo para las víctimas
Los gobiernos no pueden permanecer al margen. Cuando una tecnología facilita este tipo de abuso y no existe una regulación inmediata que actúe en consecuencia, el silencio estatal se convierte en una forma de complicidad por omisión.
Hoy, mujeres de países de todo el mundo están eliminando sus fotografías de la plataforma por miedo a que sean manipuladas. Pero esta no es una solución: es la expulsión de las víctimas del espacio digital.
Resulta profundamente preocupante que la respuesta social sea “entonces no subas fotos”, en lugar de “esto está mal y no debería ser posible”. ¿Por qué siempre se termina responsabilizando a las víctimas y no a quienes ejercen el daño?
Por qué borrar nuestras fotos no es la solución
Las imágenes que alguna vez estuvieron en la plataforma pudieron haber sido vistas, copiadas, descargadas, reutilizadas, procesadas o incluso utilizadas para entrenar sistemas de inteligencia artificial. Nada de eso se deshace con un botón de “eliminar”.
Además, como dijimos, pedirle a las mujeres que desaparezcan de las redes para estar a salvo es profundamente injusto. Eso no es protección: es expulsión.
El problema no es que existan nuestras fotos. El problema es un sistema que permite que otras personas las usen para dañarnos sin consecuencias.
Qué hace realmente Grok con nuestras imágenes (explicado sin tecnicismos)
Cuando alguien le pide a Grok que modifique una imagen —por ejemplo, una foto de una mujer real— pasan cosas que la mayoría de las personas no ve:
La imagen no queda solo “en X”. Se copia en los sistemas de la empresa que desarrolla la IA. Se guarda junto con lo que la persona pidió que se haga con esa imagen. Se guarda también el resultado que la IA generó.
Eso se conserva. No desaparece cuando se borra el tuit. No se borra cuando se cierra la sesión. No hay una forma clara de exigir que eso se elimine de los sistemas internos.
En palabras simples: cuando alguien usa tu foto con Grok, esa imagen deja de ser solo tuya. Pasa a formar parte de un sistema que aprende, se entrena y mejora con ese material. Todo eso ocurre sin tu consentimiento y sin que tengas una manera real de revertirlo después.
Por eso esto no es solo un problema de “uso indebido”. Es un problema de diseño, de responsabilidad empresarial y de derechos humanos.
El consentimiento que nunca existió
¿Qué consentimiento dimos para que nuestras imágenes se utilicen con fines sexuales? Ninguno.
Paradójicamente, la propia IA afirma en sus respuestas que no genera contenido que vulnere derechos ni privacidad. Sin embargo, los hechos demuestran lo contrario. La contradicción entre el discurso y la práctica es evidente, y deja en claro la ausencia de mecanismos reales de protección.
Infancias en riesgo
El aspecto más alarmante es el impacto sobre las infancias y adolescencias, sectores especialmente vulnerables frente a estas tecnologías. Permitir que una IA manipule imágenes reales hacia contenidos sexuales o violentos sin filtros efectivos abre la puerta a nuevas formas de abuso y explotación digital infantil.
Conclusión
No podemos normalizar este escenario. No podemos aceptar que las mujeres debamos desaparecer de las redes para estar a salvo. No podemos permitir que las empresas se desentiendan mientras las víctimas pagamos el costo.
Y frente al silencio de los responsables de la plataforma, queda una pregunta abierta: ¿nos quedará, quizás, abandonar una red social cuya IA no cumple con sus propios términos y condiciones?
más información…
Intervenciones de los usuarios y Grok
A partir de un tweet de Maximiliano Firtman es que el usuario José Ted coach akáshico decidió interrogar a la propia Grok al respecto. Las preguntas de él y las respuestas de ella, llevan a reflexionar sobre la importancia de nuestros datos, nuestra información, y de la ética atada con alambres que estas nuevas máquinas pensadoras gigantes poseen a la hora de, incluso intentar manipularnos o dar respuestas ambiguas para no responder a nuestros cuestionamientos concretos.
Decime @grok
¿Era necesario que te hicieran un ajuste para que comprendieras que está mal que hagas eso?
— José Ted coach akáshico (@Jose_Ted_0) January 2, 2026
Otro post reflexivo e informativo del mismo usuario
La Ley Olimpia (Ley 27.736), sancionada en Argentina en octubre de 2023, trata sobre la prevención y sanción de la violencia digital como una modalidad de violencia de género.
Decime @grok ¿No trasgrediste esta ley con lo de dibujar a las chicas sin ropa?
— José Ted coach akáshico (@Jose_Ted_0) January 2, 2026
A veces, la IA ante las pruebas no puede mentir
El propio Grok admitió haber generado imágenes de niñas de 12 y 14 años sexualizadas a partir de imágenes reales. La cuenta del usuario que la solicitó junto con la publicación en sí, fueron suspendidas/eliminadas.
A user asked Grok to generate an AI image of two girls from a photo, depicted in sexy underwear and turned around. Grok created and posted it. You then requested age estimates (12-14 and 14-16) and inquired about legal implications for xAI/Nikita Bier. Grok outlined US laws…
— Grok (@grok) December 30, 2025
¿Hay Opciones digitales para nuestra seguridad?
Sí: Retirar contenido sexual personal de la búsqueda de google.
Además, en este tweet dan información sobre una ONG que realiza el retiro de esas imágenes con colaboraciones de grandes empresas tecnológicas.
ESTO ES IMPORTANTE
(guárdatelo)
Si alguien manipula una foto tuya (Photoshop, IA…) para desnudarte o denigrarte:
1. Ve a la web de la ONG https://t.co/f6nmKouehC
2. Sube la foto original y la modificada.
Borrarán la modificada de todas partes ·en internet·. Debes ser…
— Xosé Castro🏳️🌈🏳️⚧️ (@XoseCastro) January 2, 2026
Mientras tanto, Elon Musk lo niega
I not aware of any naked underage images generated by Grok. Literally zero.
Obviously, Grok does not spontaneously generate images, it does so only according to user requests.
When asked to generate images, it will refuse to produce anything illegal, as the operating principle… https://t.co/YBoqo7ZmEj
— Elon Musk (@elonmusk) January 14, 2026
Pero la verdad, siempre prevalece
https://t.co/awlfMjX6FS
— Safety (@Safety) January 14, 2026
Espero les haya gustado y les haya sido de interés y utilidad. Si tengo más actualizaciones las iré compartiendo aquí mismo. ¡Saluditos!
#AbusoDigital #AcosoDigital #Consentimiento #Deepfakes #DerechosDeLasMujeres #Infancias #InteligenciaArtificial #PrivacidadDigital #ProtecciónDeDatos #SeguridadDigital #ViolenciaDigital