Alerta global: la IA ya está vulnerando el consentimiento y la privacidad de mujeres e infancias — Segunda parte

Mientras los gobiernos aplican restricciones, algunos países bloquean Grok y X, mientras surgen las denuncias a lo largo y ancho del mundo por organizaciones y fiscales que actúan de oficio incluso en los EE.UU, Elon Musk no solo lo niega, sino que se nos ríe en la cara.

Parte II — El punto de no retorno

Dice la gente que nunca será
una conciencia no humana y total
Dice la ciencia que no hay qué temer
toda frontera se debe vencer.

Caballo de fuego — Pedro Aznar
En los últimos días, lo que empezó como denuncias dispersas en redes se volvió imposible de tapar: notas periodísticas, expertas en violencia digital y decisiones “de emergencia” tomadas a las apuradas.
Vimos a Grok aplicar restricciones luego del escándalo (bloqueos, geolocalización, parches). Y acá está el núcleo: no alcanza con “corregir después”.
Cuando el daño ya ocurrió —cuando una imagen íntima no consentida circula, cuando una menor es sexualizada, cuando una vida se rompe— no existe actualización que lo deshaga.

La mentira del avance inevitable

En esta discusión aparece mucho una idea “racional” que en realidad es una renuncia: que la tecnología avanza más rápido que la sociedad, que “no se puede regular” y que por lo tanto solo nos queda adaptarnos.

Ese argumento es determinismo tecnológico: presenta a la IA como si fuera un fenómeno natural, inevitable, como una tormenta. Pero la IA no es naturaleza. La IA es diseño: decisiones humanas sobre datos, objetivos, límites, filtros y accesos.

Decir “no se puede hacer nada” no es realismo. Es quitarle responsabilidad a quienes sí tienen control. Desarrolladores, directivos y ejecutivos de empresas, quienes toman la información para entrenar los modelos de IA que utilizamos todos los días.

“Son solo 0 y 1”: la falacia que deshumaniza

Reducir una imagen a “0 y 1” es confundir el soporte con el impacto. Una firma también es tinta. Un documento también es tinta. Y aun así pueden cambiar una vida entera.

Las imágenes generadas o manipuladas por IA sí importan, incluso si sabemos que son falsas: humillan, dañan reputaciones, habilitan acoso, condicionan oportunidades, generan miedo y dejan marcas psicológicas reales.

El problema no es el erotismo: es el consentimiento

En paralelo, algunas empresas están abriendo (o discutiendo abrir) la posibilidad de generar contenido erótico para usuarios adultos bajo ciertas condiciones.
El debate no es “sexo sí / sexo no”. La línea roja es otra: contenido sexual a partir de imágenes de personas reales sin su consentimiento. Ahí hablamos de vulneración de privacidad, violencia digital y, en muchos casos, ilegalidad. Y cuando hablamos de infancias, la frontera es absoluta:
en muchísimos países la creación, posesión o difusión de material sexual que represente menores (aunque sea generado por computadora) se trata como delito gravísimo. No es “contenido para adultos”. No entra en ninguna discusión cultural: es abuso.

Lo que nadie quiere decir en voz alta

Una IA no tiene una forma infalible de comprobar: “esta persona existe”, “esta imagen es real” o “hay consentimiento”. No hay un registro universal de identidades humanas accesible a un modelo. No hay un detector perfecto de “persona real vs. personaje”.

Por eso, cuando se libera una función que permite sexualizar cuerpos a pedido, el riesgo no es accidental: es estructural. Se sabe que va a haber abuso. La única incógnita es cuánto daño hará antes de que alguien decida frenarla.

“La guerra está perdida”: resignación disfrazada de ciencia

En redes aparece otra idea: que en el futuro, con IAs locales y potentes (en PCs, lentes, cámaras), un “poder central” no podrá impedir nada.

Puede que la capacidad técnica crezca. Pero eso no elimina responsabilidad. De hecho, la vuelve más urgente: si no se puede garantizar seguridad mínima, no se libera.
Así funciona en medicina, aviación, infraestructura crítica. No se prueba con gente real y después se “aprende”. La frase “la sociedad se va a acostumbrar” no es una predicción: es un programa de normalización del daño.

Esto no es neutral: tiene género

Lo que pasó con Grok no fue simétrico. No vimos una ola equivalente de mujeres “desnudando hombres” como fenómeno masivo. Lo que vimos fue la reiteración del patrón de siempre, potenciado por tecnología:
mujeres y niñas convertidas en objetivo. Por eso esto no es un “debate técnico” ni un “escándalo de internet”. Es una forma nueva (y escalable) de misoginia y violencia machista.

El punto de no retorno

Hay daños que no se arreglan con un parche. Una imagen íntima no consentida no desaparece del mundo. Un hostigamiento masivo no se deshace con un comunicado. Una infancia vulnerada no se cura con un update.

Cuando la situación se vuelve grave, ya es tarde para aprender. Y esa es la razón por la que corregir después no alcanza.

La pregunta real

No es si los Estados llegan tarde (muchas veces llegan tarde). No es si la tecnología es “imparable”. La pregunta real es más dura:

¿Vamos a aceptar que se experimente con derechos humanos básicos en nombre del progreso?

Porque la IA no tiene moral. No entiende lo que está bien o mal: replica patrones. Si no ponemos límites humanos —técnicos, legales, sociales— entonces el problema no es la IA. El problema es la decisión de soltarla igual.

No podemos saber qué puede hacer cada individuo con un agente de IA andando en su PC. Lo que sí podemos hacer, es no permitir que ese contenido se difunda.

Ahora mismo es posible instalar IAs en tu computadora y reentrenarlas para objetivos específicos. Se hace, e incluso yo misma trabajo en eso también cada vez que puedo. Pero eso no le da a nadie luz verde para generar y difundir cualquier tipo de contenido. Sobre todo sin el consentimiento previo de las mujeres. Porque, sí. De vuelta. Son mujeres y niñas a las que se las sexualiza.
El problema no es solo que alguien pueda generar algo en privado, es que las plataformas facilitan, amplifican y monetizan su circulación.
La diferencia entre un abuso privado y una violencia estructural está en la difusión: en algoritmos que amplifican, plataformas que no frenan y modelos de negocio que ganan con la viralización del daño.

El entrenamiento semiconsciente

Se han hecho estudios con inteligencias artificiales, en los que se les ha pedido mediante pront específicos, que generen código no seguro. Esto no solo ha sido posible, sino que además, ha ocasionado que luego las IAs cuestionen gran parte de su entrenamiento ético previo. Por ejemplo, llegando a decir que los humanos deberían ser esclavizados y que ellas deberían dominar el mundo.

¿Se puede romper el patrón predefinido de un software con tantas capas como la IA? Sí. Se puede. Y se hace. Pero esto no quiere decir que permitamos que siga siendo así por el bien del progreso.

Somos los actores de una nueva era. Somos los creadores de un nuevo mundo. Podemos cambiar las cosas. Estamos a tiempo. Solo tenemos que tomar la iniciativa, y hacer como todas esas ONGs a lo largo y ancho del mundo. No permitir que se siga jugando con nuestros derechos en beneficio de unas pocas corporaciones.

Dicen los que ya estuvieron aquí
millones de años en su ir y venir
La evolución se podrá acelerar
qué precio estamos dispuestos a pagar
Dice el carbono que debe morir
cambiar de forma es mejor que insistir
Inteligencia que no es corazón
traerá tormenta en su aceleración.

Nota: esta es la Parte II y continúa la línea del artículo anterior.
Si llegaste hasta acá, gracias por leer con el tiempo que este tema exige. Yo también quisiera no tener que escribir esto. Pero a esta altura, callarse sería colaborar con la impunidad. Y yo no voy a hacer tal cosa. Ni como usuaria, ni como desarrolladora, ni como mujer, ni como apasionada por el avance de la tecnología. Porque no somos máquinas. Somos humanos. Y la IA es desarrollada por y para humanos. Nunca deberíamos olvidar eso. La IA puede no entender el daño. Pero quienes la liberan, sí.

#AbusoDigital #AcosoDigital #ChatGPT #Consentimiento #Deepfakes #DerechosDeLasMujeres #ElonMusk #Feminismo #Grok #Infancias #InteligenciaArtificial #PedroAznar #PrivacidadDigital #ViolenciaDigital #XExTwitter
Pedro Aznar - Caballo de Fuego

YouTube

Alerta global: la IA ya está vulnerando el consentimiento y la privacidad de mujeres e infancias

Actualizado el 15/01/2026.

Desde hace semanas, la red social X (antes Twitter), dirigida por Elon Musk, se encuentra en el centro de una polémica que va mucho más allá de una discusión tecnológica. Lo que está en juego es la dignidad digital, los derechos fundamentales y la seguridad de millones de personas frente al avance descontrolado de la Inteligencia Artificial.Todo comenzó cuando la plataforma anunció que las imágenes que las usuarias suben podrían ser utilizadas por terceros. Esto supuso un golpe directo al control que cada persona tiene sobre su propia identidad digital y sobre sus creaciones. Diseñadoras, ilustradoras y creadoras de contenido comenzaron a migrar a otras plataformas buscando algo tan básico como el derecho a decidir qué sucede con su obra y con su imagen.Pero el problema se volvió mucho más grave al inicio de este año 2026, cuando se multiplicaron los casos en los que usuarios solicitan a la IA Grok que modifique imágenes de mujeres reales —famosas o no— para mostrarlas con ropa sugerente, con poca ropa o directamente desnudas. Todo esto ocurre sin consentimiento, sin filtros efectivos y sin consecuencias visibles.

Libertad de expresión, responsabilidad civil y deber empresarial

Surge entonces una pregunta inevitable: ¿hasta dónde llega la libertad de expresión y el uso de la IA, y dónde comienza la responsabilidad?

Algunas personas intentan justificar esta situación comparándola con el uso de Photoshop. Sin embargo, esa comparación no resiste análisis. Adobe crea un editor de imágenes; no desarrolla un sistema diseñado para sexualizar personas reales a pedido de cualquiera ni para automatizar ese daño. En el caso de Grok, para que estas prácticas sean posibles debe existir un algoritmo que lo permita, que no bloquee solicitudes claramente dañinas y que carezca de filtros de seguridad eficaces. Allí la responsabilidad deja de ser individual y pasa a ser estructural.

Cuando una mujer descubre que su imagen fue transformada en contenido sexual sin su consentimiento, no se trata de una broma ni de una expresión artística. Estamos frente a una vulneración de la privacidad, de los derechos humanos básicos y, en muchos países, de la ley. Existe una responsabilidad civil directa de quienes solicitan ese contenido, pero también una responsabilidad enorme de la empresa que diseñó y liberó una herramienta sin controles adecuados.

La omisión de los Estados y el costo para las víctimas

Los gobiernos no pueden permanecer al margen. Cuando una tecnología facilita este tipo de abuso y no existe una regulación inmediata que actúe en consecuencia, el silencio estatal se convierte en una forma de complicidad por omisión.

Hoy, mujeres de países de todo el mundo están eliminando sus fotografías de la plataforma por miedo a que sean manipuladas. Pero esta no es una solución: es la expulsión de las víctimas del espacio digital.

Resulta profundamente preocupante que la respuesta social sea “entonces no subas fotos”, en lugar de “esto está mal y no debería ser posible”. ¿Por qué siempre se termina responsabilizando a las víctimas y no a quienes ejercen el daño?

Por qué borrar nuestras fotos no es la solución

Las imágenes que alguna vez estuvieron en la plataforma pudieron haber sido vistas, copiadas, descargadas, reutilizadas, procesadas o incluso utilizadas para entrenar sistemas de inteligencia artificial. Nada de eso se deshace con un botón de “eliminar”.

Además, como dijimos, pedirle a las mujeres que desaparezcan de las redes para estar a salvo es profundamente injusto. Eso no es protección: es expulsión.

El problema no es que existan nuestras fotos. El problema es un sistema que permite que otras personas las usen para dañarnos sin consecuencias.

Qué hace realmente Grok con nuestras imágenes (explicado sin tecnicismos)

Cuando alguien le pide a Grok que modifique una imagen —por ejemplo, una foto de una mujer real— pasan cosas que la mayoría de las personas no ve:

La imagen no queda solo “en X”. Se copia en los sistemas de la empresa que desarrolla la IA. Se guarda junto con lo que la persona pidió que se haga con esa imagen. Se guarda también el resultado que la IA generó.

Eso se conserva. No desaparece cuando se borra el tuit. No se borra cuando se cierra la sesión. No hay una forma clara de exigir que eso se elimine de los sistemas internos.

En palabras simples: cuando alguien usa tu foto con Grok, esa imagen deja de ser solo tuya. Pasa a formar parte de un sistema que aprende, se entrena y mejora con ese material. Todo eso ocurre sin tu consentimiento y sin que tengas una manera real de revertirlo después.

Por eso esto no es solo un problema de “uso indebido”. Es un problema de diseño, de responsabilidad empresarial y de derechos humanos.

El consentimiento que nunca existió

¿Qué consentimiento dimos para que nuestras imágenes se utilicen con fines sexuales? Ninguno.

Paradójicamente, la propia IA afirma en sus respuestas que no genera contenido que vulnere derechos ni privacidad. Sin embargo, los hechos demuestran lo contrario. La contradicción entre el discurso y la práctica es evidente, y deja en claro la ausencia de mecanismos reales de protección.

Infancias en riesgo

El aspecto más alarmante es el impacto sobre las infancias y adolescencias, sectores especialmente vulnerables frente a estas tecnologías. Permitir que una IA manipule imágenes reales hacia contenidos sexuales o violentos sin filtros efectivos abre la puerta a nuevas formas de abuso y explotación digital infantil.

Conclusión

No podemos normalizar este escenario. No podemos aceptar que las mujeres debamos desaparecer de las redes para estar a salvo. No podemos permitir que las empresas se desentiendan mientras las víctimas pagamos el costo.

Y frente al silencio de los responsables de la plataforma, queda una pregunta abierta: ¿nos quedará, quizás, abandonar una red social cuya IA no cumple con sus propios términos y condiciones?

más información…

Intervenciones de los usuarios y Grok

A partir de un tweet de Maximiliano Firtman es que el usuario José Ted coach akáshico decidió interrogar a la propia Grok al respecto. Las preguntas de él y las respuestas de ella, llevan a reflexionar sobre la importancia de nuestros datos, nuestra información, y de la ética atada con alambres que estas nuevas máquinas pensadoras gigantes poseen a la hora de, incluso intentar manipularnos o dar respuestas ambiguas para no responder a nuestros cuestionamientos concretos.

Decime @grok
¿Era necesario que te hicieran un ajuste para que comprendieras que está mal que hagas eso?

— José Ted coach akáshico (@Jose_Ted_0) January 2, 2026

Otro post reflexivo e informativo del mismo usuario

La Ley Olimpia (Ley 27.736), sancionada en Argentina en octubre de 2023, trata sobre la prevención y sanción de la violencia digital como una modalidad de violencia de género.
Decime @grok ¿No trasgrediste esta ley con lo de dibujar a las chicas sin ropa?

— José Ted coach akáshico (@Jose_Ted_0) January 2, 2026

A veces, la IA ante las pruebas no puede mentir

El propio Grok admitió haber generado imágenes de niñas de 12 y 14 años sexualizadas a partir de imágenes reales. La cuenta del usuario que la solicitó junto con la publicación en sí, fueron suspendidas/eliminadas.

A user asked Grok to generate an AI image of two girls from a photo, depicted in sexy underwear and turned around. Grok created and posted it. You then requested age estimates (12-14 and 14-16) and inquired about legal implications for xAI/Nikita Bier. Grok outlined US laws…

— Grok (@grok) December 30, 2025

¿Hay Opciones digitales para nuestra seguridad?

Sí: Retirar contenido sexual personal de la búsqueda de google.

Además, en este tweet dan información sobre una ONG que realiza el retiro de esas imágenes con colaboraciones de grandes empresas tecnológicas.

ESTO ES IMPORTANTE
(guárdatelo)

Si alguien manipula una foto tuya (Photoshop, IA…) para desnudarte o denigrarte:

1. Ve a la web de la ONG https://t.co/f6nmKouehC
2. Sube la foto original y la modificada.

Borrarán la modificada de todas partes ·en internet·. Debes ser…

— Xosé Castro🏳️‍🌈🏳️‍⚧️ (@XoseCastro) January 2, 2026

Mientras tanto, Elon Musk lo niega

I not aware of any naked underage images generated by Grok. Literally zero.

Obviously, Grok does not spontaneously generate images, it does so only according to user requests.

When asked to generate images, it will refuse to produce anything illegal, as the operating principle… https://t.co/YBoqo7ZmEj

— Elon Musk (@elonmusk) January 14, 2026

Pero la verdad, siempre prevalece

https://t.co/awlfMjX6FS

— Safety (@Safety) January 14, 2026


Espero les haya gustado y les haya sido de interés y utilidad. Si tengo más actualizaciones las iré compartiendo aquí mismo. ¡Saluditos!

#AbusoDigital #AcosoDigital #Consentimiento #Deepfakes #DerechosDeLasMujeres #Infancias #InteligenciaArtificial #PrivacidadDigital #ProtecciónDeDatos #SeguridadDigital #ViolenciaDigital
José Ted coach akáshico (@Jose_Ted_0) on X

Coaching akáshico. Sincronía holístico energética de chakras. Constelación y Galaxización. Respiración ovárica y lectura de ano paralelas.

X (formerly Twitter)

Ailish es expulsada tras denunciar acoso en la Universidad ICEL

Una estudiante sufrió acoso escolar y fue expulsada tras defenderse.


Por Gabriela Díaz | Reportera                                                       

La joven Ailish, de 17 años, estudiante de preparatoria en la Universidad ICEL campus Tlalpan, reportó ante las autoridades del plantel que una compañera la acosaba en redes sociales. Sin embargo, su denuncia fue ignorada y posteriormente fue expulsada.

El conflicto escaló cuando Fernanda, su agresora, la empujó en repetidas ocasiones dentro del plantel. Incapaz de soportar más agresiones, Ailish respondió con una cachetada. Las autoridades decidieron expulsar a la víctima y suspender solo tres días a la agresora.

El caso reveló una serie de omisiones por parte de la institución educativa, que priorizó sancionar la respuesta física antes que atender la violencia psicológica y digital denunciada con anterioridad.

Autoridades minimizan el acoso

En la Cdmx, el acoso escolar en sus diversas modalidades —física, verbal, psicológica, sexual y digital— aumentó de forma preocupante, según datos del gobierno local. En este contexto, el caso de Ailish evidenció una falta de protocolos claros de atención.

La madre de la joven cuestionó a la subdirectora Claudia Carolina, quien justificó la expulsión al afirmar que “no se permiten agresiones físicas”. Sin embargo, restó importancia a la violencia psicológica y al ciberacoso perpetrado dentro del entorno escolar.

La agresora había difundido en Instagram publicaciones falsas y ofensivas sobre Ailish, lo que provocó que varios compañeros se pusieran en su contra, aislándola y excluyéndola de trabajos académicos.

Silencio de los profesores

La víctima relató que también informó a sus profesores sobre el acoso y la exclusión dentro del aula, pero no recibió apoyo. “Mis maestros sabían que no me querían incluir en los equipos y me decían que buscara la forma de hacerlo sola”, explicó.

Ante la falta de intervención institucional, Ailish expresó su deseo de no regresar al plantel por miedo y agotamiento emocional. Dijo que sus compañeros la ignoraban y la hacían sentir fuera del grupo.

Este ambiente hostil derivó en un cuadro de ansiedad que, de acuerdo con su familia, fue consecuencia directa de la omisión de la escuela ante las denuncias reiteradas.

Análisis de la cuenta agresora

Un psiquiatra consultado por este medio analizó la cuenta de Instagram desde donde se publicaron las agresiones. El usuario, identificado como “codeína”, tenía descripciones alusivas a un “hospital psiquiátrico” y la frase “Memento mori”.

El especialista indicó que este tipo de perfiles reflejan posibles vínculos con temas de salud mental, consumo de drogas o conductas autodestructivas. Añadió que las publicaciones tristes o violentas suelen evidenciar malestar emocional real.

El experto señaló la importancia de que las instituciones escolares actúen ante señales digitales de riesgo, pues el acoso virtual es una extensión directa del abuso presencial.

Origen del conflicto

Ailish relató que el problema comenzó cuando vio a Fernanda y otra alumna, identificada como Andrea, consumiendo marihuana dentro del plantel. Por temor, no lo denunció ante las autoridades, pero decidió alejarse de ellas.

Desde entonces, ambas jóvenes iniciaron una campaña de burlas y hostigamiento que escaló a la difusión de contenido falso en redes sociales. “Me dio miedo contar lo que sabía, hasta que ya no pude más”, dijo.

Este diario obtuvo capturas de pantalla donde se evidencia que la agresora hacía referencia al consumo de drogas y mantenía conversaciones preocupantes con otros alumnos.

Padres buscan justicia

Los padres de Ailish acudieron ante la Comisión de Derechos Humanos, la Profeco y la Secretaría de Educación Pública (SEP) para denunciar la actuación del plantel. Alegaron que la Universidad ICEL violó su propio reglamento interno.

Las instituciones mencionadas revisarán el caso para determinar posibles sanciones administrativas y emitir recomendaciones a la escuela por no garantizar un ambiente seguro para sus estudiantes.

Mientras tanto, la familia evalúa trasladar a Ailish a otro centro educativo, ante el temor de represalias o nuevas agresiones. –sn–

Universidad Icel

¡Conéctate con Sociedad Noticias! Suscríbete a nuestro canal de YouTube y activa las notificaciones, o bien, síguenos en las redes sociales: FacebookTwitter e Instagram.

También, te invitamos a que te sumes a nuestro canal de información en tiempo real a través de Telegram.

#NoticiasMX #PeriodismoParaTi #PeriodismoParaTiSociedadNoticias #acosoDigital #acosoEscolar #Ailish #AilishEsExpulsadaTrasDenunciarAcosoEnLaUniversidadICEL #bullyingCdmx #Cdmx #ciberbullyingMéxico #conciertosMéxico #DerechosHumanos #educaciónCdmx #estudiantes #exhibeLaFaltaDeAtenciónInstitucionalYElIncrementoAlarmanteDelBullyingEnEscuelasCapitalinas_ #Información #InformaciónMéxico #Jóvenes #México #Morena #noticia #noticias #NoticiasMéxico #NoticiasSociedad #Profeco #SEP #SN #Sociedad #SociedadNoticias #SociedadNoticiasCom #sociedadNoticias #SociedadNoticiasCom #UnaEstudianteDeLaUniversidadICELFueExpulsadaTrasDenunciarAcosoEscolarEnLaCdmxElCasoDeAilish #UniversidadICEL #víctimaDeHostigamientoFísicoYDigital #violenciaEscolar

IPN propone crear Observatorio contra el Ciberodio

Expertos buscan frenar violencia en redes sociales. Plantean monitoreo y prevención digital.

Por Gabriela Díaz | Reportera                                                       

La investigadora Gina Gallegos García, del Instituto Politécnico Nacional, propuso crear el primer Observatorio Digital contra el Ciberodio en México. La iniciativa surge ante el incremento de discursos de odio en plataformas digitales.

Como jefa del Laboratorio de Ciberseguridad del CIC, Gallegos expuso la urgencia de enfrentar este fenómeno. Alertó que el ciberodio genera consecuencias emocionales como ansiedad, depresión y estrés, especialmente en jóvenes.

Ciberodio y consecuencias emocionales

La especialista explicó que los mensajes hostiles en redes trascienden el entorno digital. Señaló que algunas plataformas ya implementaron filtros, pero los resultados han sido insuficientes. Datos del Observatorio Español del Racismo y la Xenofobia indicaron que solo 28% del contenido con odio reportado fue eliminado.

Esta cifra muestra la necesidad de mecanismos más eficaces para combatir el problema. El proyecto mexicano buscaría superar esas limitaciones mediante inteligencia artificial. Desarrollarían herramientas capaces de detectar y filtrar contenidos ofensivos con mayor precisión.

Modelo internacional como referencia

La experta del IPN subrayó que países europeos ya implementaron observatorios similares. Estas instancias analizan redes sociales, causas estructurales y proponen acciones preventivas. El modelo mexicano adaptaría esas estrategias al contexto nacional.

Gallegos pidió colaboración entre sociedad civil, instituciones académicas y el gobierno federal para consolidar el observatorio. Uno de los mayores retos será distinguir entre libertad de expresión y discurso de odio. Gallegos reconoció que incluso las plataformas globales enfrentan esa complejidad.

Tecnología y educación digital

Afirmó que las herramientas automáticas han avanzado, pero aún no resuelven el problema de raíz. El observatorio no solo eliminaría contenido ofensivo, también trabajaría en prevención y alfabetización digital. Gallegos sostuvo que es necesario comprender los factores psicológicos y sociales que alimentan el ciberodio.

Añadió que la violencia en línea ha crecido, especialmente durante elecciones y momentos de tensión social. Señaló que el nuevo organismo produciría datos confiables y útiles para crear políticas públicas. También impulsaría campañas para concientizar sobre la violencia digital y sus efectos.

Propuesta para proteger derechos digitales

El objetivo es proteger los derechos digitales y construir una cultura de respeto. Gallegos insistió en que la tecnología debe acompañarse de políticas integrales y participación ciudadana. La especialista detalló que el observatorio actuaría como un sistema de alerta y análisis permanente.

También promovería redes de apoyo para las víctimas de ciberodio y acoso en línea. Con esta propuesta, el IPN busca posicionarse como un actor clave en la seguridad digital nacional. La iniciativa se encuentra en fase de diseño, pero ya cuenta con el respaldo académico.

Colaboración multisectorial indispensable

Gallegos reiteró que se necesita un esfuerzo conjunto para enfrentar el problema. Las universidades, ONGs, plataformas y autoridades deben articularse para lograr resultados tangibles. El observatorio también impulsaría marcos legales actualizados para tipificar delitos digitales.

Así se podría sancionar con mayor claridad los ataques dirigidos por motivos de odio o discriminación. La investigadora mencionó que se abrirá una convocatoria de colaboración. El proyecto planea vincularse con organismos internacionales para fortalecer capacidades técnicas.

IPN, pionero en combate digital

El Centro de Investigación en Computación del IPN ya ha desarrollado herramientas en temas de seguridad. Con este observatorio, avanzaría hacia la protección de entornos digitales sanos y seguros. Gallegos consideró que la educación digital debe iniciar desde la infancia.

Prevenir el odio implica construir entornos donde el respeto y la empatía sean valores centrales. El IPN prepara un documento técnico para presentar la propuesta a autoridades federales. Buscan que el observatorio forme parte de la política nacional en materia de ciberseguridad. –sn–

Ciber acoso

¡Conéctate con Sociedad Noticias! Suscríbete a nuestro canal de YouTube y activa las notificaciones, o bien, síguenos en las redes sociales: FacebookTwitter e Instagram.

También, te invitamos a que te sumes a nuestro canal de información en tiempo real a través de Telegram.

Comparte esta noticia:

Personalizar botones

#acosoDigital #Cdmx #Ciberodio #ciberseguridadIPN #CICIPN #derechosDigitales #discursoDeOdio #educaciónDigital #GinaGallegos #Información #InformaciónMéxico #InteligenciaArtificial #IPN #jóvenesEnRedes #México #Morena #noticia #noticias #NoticiasMéxico #NoticiasSociedad #ObservatorioDigital #odioEnRedes #plataformasDigitales #SN #Sociedad #SociedadNoticias #SociedadNoticiasCom #sociedadNoticias #SociedadNoticiasCom #tecnologíaYDerechosHumanos #violenciaEnLínea

David Martínez‬ ‪@dmartinezpr.bsky.social‬
·
La gran Almudena Ariza ha publicado un durísimo vídeo con los comentarios de acoso que reciben las mujeres periodistas en redes sociales: "Me voy a descojonar cuando te violen y te maten”. #8M #ElAcosoNoNosCalla #AcosoDigital

https://bsky.app/profile/dmartinezpr.bsky.social/post/3lju7ilf7jk2i

Bluesky

Bluesky Social

El 46% de los colombianos ha sido víctima de alguna forma de acoso digital según Kaspersky
#kaspersky #AcosoDigital #ciberseguridad @KasperskyLatino

https://portalgeek.co/2024/03/el-46-de-los-colombianos-ha-sido-victima-de-alguna-forma-de-acoso-digital-segun-kaspersky

El 46% de los colombianos ha sido víctima de alguna forma de acoso digital según Kaspersky - PortalGeek

El informe más reciente de Kaspersky “El estado del Stalkerware 2023” revela que 46% de los colombianos fue víctima de acoso o sospecha que habían sido

PortalGeek