Soldado víctima de extorsión virtual: así operaba la banda que lo hostigó hasta el suicidio en la Quinta de Olivos

La investigación judicial reveló que una organización criminal montó un esquema de engaño digital, amenazas y audios intimidatorios que cercó psicológicamente a un joven militar de 21 años. La banda operaba desde cárceles bonaerenses con celulares ingresados ilegalmente. Por Lola Santacreta para NLI https://youtu.be/3kpC4g-EOTw El caso que sacudió a la opinión pública sumó en las últimas horas detalles estremecedores. Rodrigo Andrés Gómez, el soldado que se suicidó […]

https://noticiaslainsuperable.com.ar/2026/02/10/soldado-victima-de-extorsion-virtual-asi-operaba-la-banda-que-lo-hostigo-hasta-el-suicidio-en-la-quinta-de-olivos/

Buscan tipificar la violencia digital y el ciberacoso contra mujeres

Aseguró que estas agresiones no sólo generan daño emocional y psicológico, sino que también afectan la reputación, la seguridad y las relaciones personales de las víctimas.


Por Gabriela Díaz | Reportera                                                      

La diputada federal Verónica Martínez García presentó una iniciativa para reformar la fracción IV del artículo 5 y adicionar la fracción VIII al artículo 6 de la Ley General de Acceso de las Mujeres a una Vida Libre de Violencia, con el objetivo de incorporar la violencia digital y el ciberacoso como modalidades específicas de agresión.

Explicó que la violencia contra las mujeres debe reconocer también las formas digitales, entendidas como el uso de tecnologías de la información y comunicación para ejercer hostigamiento, difamación, suplantación de identidad, distribución no consensual de imágenes o datos personales, o cualquier conducta que limite su libertad o cause daño.

La propuesta plantea reconocer en la legislación a la violencia digital y el ciberacoso como toda conducta agresiva, controladora o intimidatoria ejercida a través de redes sociales, plataformas digitales, mensajería instantánea o cualquier otro medio tecnológico, dirigida hacia una mujer por razones de género.

La legisladora sostuvo que estas formas de violencia se han convertido en problemas estructurales de la sociedad mexicana contemporánea, al reflejar y reproducir desigualdades de género en el entorno digital. –sn–

Verónica Martínez García

¡Conéctate con Sociedad Noticias! Suscríbete a nuestro canal de YouTube y activa las notificaciones, o bien, síguenos en las redes sociales: FacebookTwitter e Instagram.

También, te invitamos a que te sumes a nuestro canal de información en tiempo real a través de Telegram.

#NoticiasMX #PeriodismoParaTi #PeriodismoParaTiSociedadNoticias #CámaraDeDiputados #Cdmx #Ciberacoso #derechosDeLasMujeres #igualdadDeGénero #Información #InformaciónMéxico #legislaciónMexicana #México #Morena #noticia #noticias #NoticiasMéxico #NoticiasSociedad #plataformasDigitales #pri #RedesSociales #SN #Sociedad #SociedadNoticias #SociedadNoticiasCom #sociedadNoticias #SociedadNoticiasCom #violenciaContraLasMujeres #violenciaDigital
La violencia digital contra las mujeres no es nueva, pero la IA la está haciendo más eficaz

La inteligencia artificial amplifica la violencia digital contra las mujeres: deepfakes, sesgos de género y vacíos legales revelan cómo la IA reproduce desigualdades y excluye voces femeninas del espacio público

Rolling Stone en Español

UCR impartirá taller virtual de autodefensa en redes sociales para mujeres en la esfera política

En el contexto electoral actual y en la antesala de las elecciones 2026, el taller busca fortalecer las herramientas de protección digital dirigidas a mujeres con participación política mediante dos ses [...]

#CampañaEnRedesSociales #Cultura #Elecciones #Elecciones2026 #País #RedesSoc #SinCategoría #Universitarias #ViolenciaContraMujeres #ViolenciaDigital #ViolenciaPolítica

https://semanariouniversidad.com/sin-categoria/ucr-impartira-taller-virtual-de-autodefensa-en-redes-sociales-para-mujeres-en-la-esfera-politica/

UCR impartirá taller virtual de autodefensa en redes sociales para mujeres en la esfera política • Semanario Universidad

En el contexto electoral actual y en la antesala de las elecciones 2026, el taller busca fortalecer las herramientas de protección digital dirigidas a mujeres con participación política mediante dos sesiones gratuitas.

Semanario Universidad

UCR impartirá taller virtual de autodefensa en redes sociales para mujeres en la esfera política

En el contexto electoral actual y en la antesala de las elecciones 2026, el taller busca fortalecer las herramientas de protección digital dirigidas a mujeres con participación política mediante dos ses [...]

#CampañaEnRedesSociales #Cultura #Elecciones #Elecciones2026 #País #RedesSoc #SinCategoría #Universitarias #ViolenciaContraMujeres #ViolenciaDigital #ViolenciaPolítica

https://semanariouniversidad.com/sin-categoria/ucr-impartira-taller-virtual-de-autodefensa-en-redes-sociales-para-mujeres-en-la-esfera-politica/

UCR impartirá taller virtual de autodefensa en redes sociales para mujeres en la esfera política • Semanario Universidad

En el contexto electoral actual y en la antesala de las elecciones 2026, el taller busca fortalecer las herramientas de protección digital dirigidas a mujeres con participación política mediante dos sesiones gratuitas.

Semanario Universidad

Alerta global: la IA ya está vulnerando el consentimiento y la privacidad de mujeres e infancias — Segunda parte

Mientras los gobiernos aplican restricciones, algunos países bloquean Grok y X, mientras surgen las denuncias a lo largo y ancho del mundo por organizaciones y fiscales que actúan de oficio incluso en los EE.UU, Elon Musk no solo lo niega, sino que se nos ríe en la cara.

Parte II — El punto de no retorno

Dice la gente que nunca será
una conciencia no humana y total
Dice la ciencia que no hay qué temer
toda frontera se debe vencer.

Caballo de fuego — Pedro Aznar
En los últimos días, lo que empezó como denuncias dispersas en redes se volvió imposible de tapar: notas periodísticas, expertas en violencia digital y decisiones “de emergencia” tomadas a las apuradas.
Vimos a Grok aplicar restricciones luego del escándalo (bloqueos, geolocalización, parches). Y acá está el núcleo: no alcanza con “corregir después”.
Cuando el daño ya ocurrió —cuando una imagen íntima no consentida circula, cuando una menor es sexualizada, cuando una vida se rompe— no existe actualización que lo deshaga.

La mentira del avance inevitable

En esta discusión aparece mucho una idea “racional” que en realidad es una renuncia: que la tecnología avanza más rápido que la sociedad, que “no se puede regular” y que por lo tanto solo nos queda adaptarnos.

Ese argumento es determinismo tecnológico: presenta a la IA como si fuera un fenómeno natural, inevitable, como una tormenta. Pero la IA no es naturaleza. La IA es diseño: decisiones humanas sobre datos, objetivos, límites, filtros y accesos.

Decir “no se puede hacer nada” no es realismo. Es quitarle responsabilidad a quienes sí tienen control. Desarrolladores, directivos y ejecutivos de empresas, quienes toman la información para entrenar los modelos de IA que utilizamos todos los días.

“Son solo 0 y 1”: la falacia que deshumaniza

Reducir una imagen a “0 y 1” es confundir el soporte con el impacto. Una firma también es tinta. Un documento también es tinta. Y aun así pueden cambiar una vida entera.

Las imágenes generadas o manipuladas por IA sí importan, incluso si sabemos que son falsas: humillan, dañan reputaciones, habilitan acoso, condicionan oportunidades, generan miedo y dejan marcas psicológicas reales.

El problema no es el erotismo: es el consentimiento

En paralelo, algunas empresas están abriendo (o discutiendo abrir) la posibilidad de generar contenido erótico para usuarios adultos bajo ciertas condiciones.
El debate no es “sexo sí / sexo no”. La línea roja es otra: contenido sexual a partir de imágenes de personas reales sin su consentimiento. Ahí hablamos de vulneración de privacidad, violencia digital y, en muchos casos, ilegalidad. Y cuando hablamos de infancias, la frontera es absoluta:
en muchísimos países la creación, posesión o difusión de material sexual que represente menores (aunque sea generado por computadora) se trata como delito gravísimo. No es “contenido para adultos”. No entra en ninguna discusión cultural: es abuso.

Lo que nadie quiere decir en voz alta

Una IA no tiene una forma infalible de comprobar: “esta persona existe”, “esta imagen es real” o “hay consentimiento”. No hay un registro universal de identidades humanas accesible a un modelo. No hay un detector perfecto de “persona real vs. personaje”.

Por eso, cuando se libera una función que permite sexualizar cuerpos a pedido, el riesgo no es accidental: es estructural. Se sabe que va a haber abuso. La única incógnita es cuánto daño hará antes de que alguien decida frenarla.

“La guerra está perdida”: resignación disfrazada de ciencia

En redes aparece otra idea: que en el futuro, con IAs locales y potentes (en PCs, lentes, cámaras), un “poder central” no podrá impedir nada.

Puede que la capacidad técnica crezca. Pero eso no elimina responsabilidad. De hecho, la vuelve más urgente: si no se puede garantizar seguridad mínima, no se libera.
Así funciona en medicina, aviación, infraestructura crítica. No se prueba con gente real y después se “aprende”. La frase “la sociedad se va a acostumbrar” no es una predicción: es un programa de normalización del daño.

Esto no es neutral: tiene género

Lo que pasó con Grok no fue simétrico. No vimos una ola equivalente de mujeres “desnudando hombres” como fenómeno masivo. Lo que vimos fue la reiteración del patrón de siempre, potenciado por tecnología:
mujeres y niñas convertidas en objetivo. Por eso esto no es un “debate técnico” ni un “escándalo de internet”. Es una forma nueva (y escalable) de misoginia y violencia machista.

El punto de no retorno

Hay daños que no se arreglan con un parche. Una imagen íntima no consentida no desaparece del mundo. Un hostigamiento masivo no se deshace con un comunicado. Una infancia vulnerada no se cura con un update.

Cuando la situación se vuelve grave, ya es tarde para aprender. Y esa es la razón por la que corregir después no alcanza.

La pregunta real

No es si los Estados llegan tarde (muchas veces llegan tarde). No es si la tecnología es “imparable”. La pregunta real es más dura:

¿Vamos a aceptar que se experimente con derechos humanos básicos en nombre del progreso?

Porque la IA no tiene moral. No entiende lo que está bien o mal: replica patrones. Si no ponemos límites humanos —técnicos, legales, sociales— entonces el problema no es la IA. El problema es la decisión de soltarla igual.

No podemos saber qué puede hacer cada individuo con un agente de IA andando en su PC. Lo que sí podemos hacer, es no permitir que ese contenido se difunda.

Ahora mismo es posible instalar IAs en tu computadora y reentrenarlas para objetivos específicos. Se hace, e incluso yo misma trabajo en eso también cada vez que puedo. Pero eso no le da a nadie luz verde para generar y difundir cualquier tipo de contenido. Sobre todo sin el consentimiento previo de las mujeres. Porque, sí. De vuelta. Son mujeres y niñas a las que se las sexualiza.
El problema no es solo que alguien pueda generar algo en privado, es que las plataformas facilitan, amplifican y monetizan su circulación.
La diferencia entre un abuso privado y una violencia estructural está en la difusión: en algoritmos que amplifican, plataformas que no frenan y modelos de negocio que ganan con la viralización del daño.

El entrenamiento semiconsciente

Se han hecho estudios con inteligencias artificiales, en los que se les ha pedido mediante pront específicos, que generen código no seguro. Esto no solo ha sido posible, sino que además, ha ocasionado que luego las IAs cuestionen gran parte de su entrenamiento ético previo. Por ejemplo, llegando a decir que los humanos deberían ser esclavizados y que ellas deberían dominar el mundo.

¿Se puede romper el patrón predefinido de un software con tantas capas como la IA? Sí. Se puede. Y se hace. Pero esto no quiere decir que permitamos que siga siendo así por el bien del progreso.

Somos los actores de una nueva era. Somos los creadores de un nuevo mundo. Podemos cambiar las cosas. Estamos a tiempo. Solo tenemos que tomar la iniciativa, y hacer como todas esas ONGs a lo largo y ancho del mundo. No permitir que se siga jugando con nuestros derechos en beneficio de unas pocas corporaciones.

Dicen los que ya estuvieron aquí
millones de años en su ir y venir
La evolución se podrá acelerar
qué precio estamos dispuestos a pagar
Dice el carbono que debe morir
cambiar de forma es mejor que insistir
Inteligencia que no es corazón
traerá tormenta en su aceleración.

Nota: esta es la Parte II y continúa la línea del artículo anterior.
Si llegaste hasta acá, gracias por leer con el tiempo que este tema exige. Yo también quisiera no tener que escribir esto. Pero a esta altura, callarse sería colaborar con la impunidad. Y yo no voy a hacer tal cosa. Ni como usuaria, ni como desarrolladora, ni como mujer, ni como apasionada por el avance de la tecnología. Porque no somos máquinas. Somos humanos. Y la IA es desarrollada por y para humanos. Nunca deberíamos olvidar eso. La IA puede no entender el daño. Pero quienes la liberan, sí.

#AbusoDigital #AcosoDigital #ChatGPT #Consentimiento #Deepfakes #DerechosDeLasMujeres #ElonMusk #Feminismo #Grok #Infancias #InteligenciaArtificial #PedroAznar #PrivacidadDigital #ViolenciaDigital #XExTwitter
Pedro Aznar - Caballo de Fuego

YouTube

RE: https://social.tchncs.de/@kunde_x/115880284595169219

No me había dado cuenta de que I#ndonesia y #Malasia fueron pioneros en la #ProtecciónDigitalDelConsumidor algo que la UE, a pesar de la #DSA, no ha logrado del todo. #grok #violenciadigital #xai

DSA Digital Services Act (Ley de Servicios Digitales) normativa europea clave que regula las plataformas y servicios en línea para un entorno más seguro y transparente, Algoritmos) en informática, dependiendo del contexto.
@tazgetroete informa: https://taz.de/Kuenstliche-Intelligenz-Grok/!6144762/

Grok mostró el lado más peligroso de la IA "sin filtros": convertir selfies en contenido explícito sin consentimiento.
La indignación global obligó a X a reaccionar.
#GrokIA #ViolenciaDigital #EticaIA

https://pletnet.io/grok-el-juguete-roto-de-la-ia-que-cruzo-todas-las-lineas/?utm_source=mastodon&utm_medium=jetpack_social

Grok: El Juguete Roto de la IA que Cruzó Todas las Líneas | Plétora Network

Grok mostró el lado más peligroso de la IA "sin filtros": convertir selfies en contenido explícito sin consentimiento. La indignación global obligó a X a reaccionar.

Plétora Network

Alerta global: la IA ya está vulnerando el consentimiento y la privacidad de mujeres e infancias

Actualizado el 15/01/2026.

Desde hace semanas, la red social X (antes Twitter), dirigida por Elon Musk, se encuentra en el centro de una polémica que va mucho más allá de una discusión tecnológica. Lo que está en juego es la dignidad digital, los derechos fundamentales y la seguridad de millones de personas frente al avance descontrolado de la Inteligencia Artificial.Todo comenzó cuando la plataforma anunció que las imágenes que las usuarias suben podrían ser utilizadas por terceros. Esto supuso un golpe directo al control que cada persona tiene sobre su propia identidad digital y sobre sus creaciones. Diseñadoras, ilustradoras y creadoras de contenido comenzaron a migrar a otras plataformas buscando algo tan básico como el derecho a decidir qué sucede con su obra y con su imagen.Pero el problema se volvió mucho más grave al inicio de este año 2026, cuando se multiplicaron los casos en los que usuarios solicitan a la IA Grok que modifique imágenes de mujeres reales —famosas o no— para mostrarlas con ropa sugerente, con poca ropa o directamente desnudas. Todo esto ocurre sin consentimiento, sin filtros efectivos y sin consecuencias visibles.

Libertad de expresión, responsabilidad civil y deber empresarial

Surge entonces una pregunta inevitable: ¿hasta dónde llega la libertad de expresión y el uso de la IA, y dónde comienza la responsabilidad?

Algunas personas intentan justificar esta situación comparándola con el uso de Photoshop. Sin embargo, esa comparación no resiste análisis. Adobe crea un editor de imágenes; no desarrolla un sistema diseñado para sexualizar personas reales a pedido de cualquiera ni para automatizar ese daño. En el caso de Grok, para que estas prácticas sean posibles debe existir un algoritmo que lo permita, que no bloquee solicitudes claramente dañinas y que carezca de filtros de seguridad eficaces. Allí la responsabilidad deja de ser individual y pasa a ser estructural.

Cuando una mujer descubre que su imagen fue transformada en contenido sexual sin su consentimiento, no se trata de una broma ni de una expresión artística. Estamos frente a una vulneración de la privacidad, de los derechos humanos básicos y, en muchos países, de la ley. Existe una responsabilidad civil directa de quienes solicitan ese contenido, pero también una responsabilidad enorme de la empresa que diseñó y liberó una herramienta sin controles adecuados.

La omisión de los Estados y el costo para las víctimas

Los gobiernos no pueden permanecer al margen. Cuando una tecnología facilita este tipo de abuso y no existe una regulación inmediata que actúe en consecuencia, el silencio estatal se convierte en una forma de complicidad por omisión.

Hoy, mujeres de países de todo el mundo están eliminando sus fotografías de la plataforma por miedo a que sean manipuladas. Pero esta no es una solución: es la expulsión de las víctimas del espacio digital.

Resulta profundamente preocupante que la respuesta social sea “entonces no subas fotos”, en lugar de “esto está mal y no debería ser posible”. ¿Por qué siempre se termina responsabilizando a las víctimas y no a quienes ejercen el daño?

Por qué borrar nuestras fotos no es la solución

Las imágenes que alguna vez estuvieron en la plataforma pudieron haber sido vistas, copiadas, descargadas, reutilizadas, procesadas o incluso utilizadas para entrenar sistemas de inteligencia artificial. Nada de eso se deshace con un botón de “eliminar”.

Además, como dijimos, pedirle a las mujeres que desaparezcan de las redes para estar a salvo es profundamente injusto. Eso no es protección: es expulsión.

El problema no es que existan nuestras fotos. El problema es un sistema que permite que otras personas las usen para dañarnos sin consecuencias.

Qué hace realmente Grok con nuestras imágenes (explicado sin tecnicismos)

Cuando alguien le pide a Grok que modifique una imagen —por ejemplo, una foto de una mujer real— pasan cosas que la mayoría de las personas no ve:

La imagen no queda solo “en X”. Se copia en los sistemas de la empresa que desarrolla la IA. Se guarda junto con lo que la persona pidió que se haga con esa imagen. Se guarda también el resultado que la IA generó.

Eso se conserva. No desaparece cuando se borra el tuit. No se borra cuando se cierra la sesión. No hay una forma clara de exigir que eso se elimine de los sistemas internos.

En palabras simples: cuando alguien usa tu foto con Grok, esa imagen deja de ser solo tuya. Pasa a formar parte de un sistema que aprende, se entrena y mejora con ese material. Todo eso ocurre sin tu consentimiento y sin que tengas una manera real de revertirlo después.

Por eso esto no es solo un problema de “uso indebido”. Es un problema de diseño, de responsabilidad empresarial y de derechos humanos.

El consentimiento que nunca existió

¿Qué consentimiento dimos para que nuestras imágenes se utilicen con fines sexuales? Ninguno.

Paradójicamente, la propia IA afirma en sus respuestas que no genera contenido que vulnere derechos ni privacidad. Sin embargo, los hechos demuestran lo contrario. La contradicción entre el discurso y la práctica es evidente, y deja en claro la ausencia de mecanismos reales de protección.

Infancias en riesgo

El aspecto más alarmante es el impacto sobre las infancias y adolescencias, sectores especialmente vulnerables frente a estas tecnologías. Permitir que una IA manipule imágenes reales hacia contenidos sexuales o violentos sin filtros efectivos abre la puerta a nuevas formas de abuso y explotación digital infantil.

Conclusión

No podemos normalizar este escenario. No podemos aceptar que las mujeres debamos desaparecer de las redes para estar a salvo. No podemos permitir que las empresas se desentiendan mientras las víctimas pagamos el costo.

Y frente al silencio de los responsables de la plataforma, queda una pregunta abierta: ¿nos quedará, quizás, abandonar una red social cuya IA no cumple con sus propios términos y condiciones?

más información…

Intervenciones de los usuarios y Grok

A partir de un tweet de Maximiliano Firtman es que el usuario José Ted coach akáshico decidió interrogar a la propia Grok al respecto. Las preguntas de él y las respuestas de ella, llevan a reflexionar sobre la importancia de nuestros datos, nuestra información, y de la ética atada con alambres que estas nuevas máquinas pensadoras gigantes poseen a la hora de, incluso intentar manipularnos o dar respuestas ambiguas para no responder a nuestros cuestionamientos concretos.

Decime @grok
¿Era necesario que te hicieran un ajuste para que comprendieras que está mal que hagas eso?

— José Ted coach akáshico (@Jose_Ted_0) January 2, 2026

Otro post reflexivo e informativo del mismo usuario

La Ley Olimpia (Ley 27.736), sancionada en Argentina en octubre de 2023, trata sobre la prevención y sanción de la violencia digital como una modalidad de violencia de género.
Decime @grok ¿No trasgrediste esta ley con lo de dibujar a las chicas sin ropa?

— José Ted coach akáshico (@Jose_Ted_0) January 2, 2026

A veces, la IA ante las pruebas no puede mentir

El propio Grok admitió haber generado imágenes de niñas de 12 y 14 años sexualizadas a partir de imágenes reales. La cuenta del usuario que la solicitó junto con la publicación en sí, fueron suspendidas/eliminadas.

A user asked Grok to generate an AI image of two girls from a photo, depicted in sexy underwear and turned around. Grok created and posted it. You then requested age estimates (12-14 and 14-16) and inquired about legal implications for xAI/Nikita Bier. Grok outlined US laws…

— Grok (@grok) December 30, 2025

¿Hay Opciones digitales para nuestra seguridad?

Sí: Retirar contenido sexual personal de la búsqueda de google.

Además, en este tweet dan información sobre una ONG que realiza el retiro de esas imágenes con colaboraciones de grandes empresas tecnológicas.

ESTO ES IMPORTANTE
(guárdatelo)

Si alguien manipula una foto tuya (Photoshop, IA…) para desnudarte o denigrarte:

1. Ve a la web de la ONG https://t.co/f6nmKouehC
2. Sube la foto original y la modificada.

Borrarán la modificada de todas partes ·en internet·. Debes ser…

— Xosé Castro🏳️‍🌈🏳️‍⚧️ (@XoseCastro) January 2, 2026

Mientras tanto, Elon Musk lo niega

I not aware of any naked underage images generated by Grok. Literally zero.

Obviously, Grok does not spontaneously generate images, it does so only according to user requests.

When asked to generate images, it will refuse to produce anything illegal, as the operating principle… https://t.co/YBoqo7ZmEj

— Elon Musk (@elonmusk) January 14, 2026

Pero la verdad, siempre prevalece

https://t.co/awlfMjX6FS

— Safety (@Safety) January 14, 2026


Espero les haya gustado y les haya sido de interés y utilidad. Si tengo más actualizaciones las iré compartiendo aquí mismo. ¡Saluditos!

#AbusoDigital #AcosoDigital #Consentimiento #Deepfakes #DerechosDeLasMujeres #Infancias #InteligenciaArtificial #PrivacidadDigital #ProtecciónDeDatos #SeguridadDigital #ViolenciaDigital
José Ted coach akáshico (@Jose_Ted_0) on X

Coaching akáshico. Sincronía holístico energética de chakras. Constelación y Galaxización. Respiración ovárica y lectura de ano paralelas.

X (formerly Twitter)

Ataques de Trump contra reporteras escalan tensión política: SIP

La denuncia internacional y los agravios contra periodistas impulsan preocupación global. Trump intensifica agresiones verbales


Por Gabriela Díaz | Reportera                                                       

En jornadas recientes se registraron nuevos señalamientos de Donald Trump contra reporteras, y la reacción internacional se enfocó en el deterioro de condiciones para el ejercicio periodístico, según informes especializados. La Sociedad Interamericana de Prensa (SIP) afirmó que las descalificaciones impulsaron un clima hostil para la labor informativa en Estados Unidos. La organización sostuvo que los ataques pusieron en riesgo la integridad de trabajadoras de los medios y debilitaron principios democráticos vinculados a la libertad de expresión.

Los reportes difundidos indicaron que el presidente estadounidense lanzó burlas y expresiones ofensivas contra periodistas que lo cuestionaron sobre temas de interés público. Las crónicas recogieron que el mandatario ridiculizó a comunicadoras de distintos medios nacionales al responder preguntas en conferencias y apariciones públicas. Las coberturas señalaron que el comportamiento del jefe de Estado formó parte de una estrategia reiterada para desacreditar la labor informativa.

En episodios distintos, el mandatario de Estados Unidos empleó calificativos agresivos contra reporteras de CBS, Blomberg, The New York Times y ABC News, todas identificadas por él como parte de las “fake news” (noticias falsas). Las fuentes consultadas indicaron que el político utilizó expresiones insultantes sin emitir posteriormente disculpa alguna. Los recuentos periodísticos registraron que ningún integrante de su equipo se distanció públicamente de las declaraciones.

Reacciones internacionales

El presidente de la SIP, Pierre Manigault, afirmó que las periodistas tenían derecho y responsabilidad de formular preguntas sin ser objeto de agravios. El directivo explicó que las descalificaciones provenientes de autoridades generaron efectos más graves al enviar un mensaje de intolerancia hacia la prensa. Manigault, responsable del grupo Evening Post Publishing Inc., aseguró que ese mensaje legitimó actos de acoso con potencial de escalar hacia escenarios de violencia.

La representante de la Comisión de Libertad de Prensa e Información de la SIP, Martha Ramos, sostuvo que la organización rechazó cualquier conducta destinada a intimidar la labor de mujeres periodistas. Ramos, directora editorial de la Organización Editorial Mexicana (OEM), recordó que el liderazgo democrático exigió respeto absoluto por la libertad de prensa ante cuestionamientos críticos. La funcionaria destacó que la Sip mantuvo respaldo total para quienes fueron blanco de ataques públicos en el periodo reciente. –sn–

La reportera de ‘ABC News’ Mary Bruce | AP

¡Conéctate con Sociedad Noticias! Suscríbete a nuestro canal de YouTube y activa las notificaciones, o bien, síguenos en las redes sociales: FacebookTwitter e Instagram.

También, te invitamos a que te sumes a nuestro canal de información en tiempo real a través de Telegram.

#noticiasmx #periodismoparati #periodismoparatiSociedadnoticias #agresionesAPeriodistas #ataquesDeTrumpContraReporterasEscalanTensionPoliticaSip #cdmx #donaldTrump #informacion #informacionMexico #libertadDeExpresion #mexico #morena #noticia #noticias #noticiasMexico #noticiasSociedad #onuMujeres #prensaInternacional #seciedadNoticiasCom #seguridadDeReporteras #sip #sn #sociedad #sociedadNoticias #sociedadNoticiasCom #sociedadnoticias #sociedadnoticiasCom #violenciaDigital