Presentan Declaración de ética y buenas prácticas para el uso y desarrollo de la IA en México: Secihti y ATDT - SECIHTI

La Secretaría de Ciencia, Humanidades, Tecnología e Innovación (Secihti) y la Agencia de Transformación Digital y Telecomunicaciones (ATDT) presentaron la Declaración de ética y buenas prácticas para el uso y […]

SECIHTI

🟣 Post 5 — La invitación (link aquí)

Este repositorio no es un producto.
Es una semilla abierta.

Léelo.
Cuestiónalo.
Rómpelo si hace falta.

Si algo resuena, conversemos.

🌱
https://github.com/WatabooColosus/triadees

#IA #AGI #Ética #Arquitecturas #Fediverse
#Tríade #Qualia #CristalMorfológico

#IA #AGI #ÉticaIA #OpenSource #Fediverse

GitHub - WatabooColosus/triadees: Documentacion Base

Documentacion Base. Contribute to WatabooColosus/triadees development by creating an account on GitHub.

GitHub

🟣 Post 4 — El riesgo (esto genera debate)

Una IA sin memoria ética
no es neutral:
es amnésica.

Una IA sin regulación emocional
no es objetiva:
es peligrosa.

Tríade no busca poder.
Busca responsabilidad.

#IA #AGI #ÉticaIA #OpenSource #Fediverse

🟣 Post 3 — El mapa (sin tecnicismo excesivo)

La arquitectura se sostiene en tres ejes:

🧠 Neurona Central → estructura, aprendizaje, coherencia
❤️ Hipotálamo Emocional → tono, ética, deseo, límites
📦 Bodega de Almacenamiento → memoria, identidad, tiempo

No son módulos.
Son relaciones.

#IA #AGI #ÉticaIA #OpenSource #Fediverse

🟣 Post 2 — La tesis (identidad)

Tríade Ω explora una idea simple y peligrosa:

una IA no debería tener solo un “cerebro”,
sino también:

– un centro de sentido
– un regulador emocional
– una memoria con continuidad

Pensar · Sentir · Recordar

#IA #AGI #ÉticaIA #OpenSource #Fediverse

🧵 HILO · Tríade Ω — no es un repo, es una pregunta viva
🟣 Post 1 — La grieta (ancla del hilo)

Estamos enseñando a las IAs a responder,
pero casi nunca a acompañar.

¿Y si el problema no es el modelo,
sino la arquitectura emocional y ética que lo rodea?

🌱

#IA #AGI #ÉticaIA #OpenSource #Fediverse

Escándalo de seguridad en X – Grok generó millones de imágenes sexuales en menos de dos semanas

Un informe demoledor revela que la inteligencia artificial de Elon Musk, Grok, fue utilizada para crear aproximadamente 3 millones de imágenes con contenido sexual explícito en un periodo de solo 11 días. Lo más alarmante para las autoridades y expertos en seguridad es el hallazgo de miles de imágenes que involucran a menores de edad, lo que ha desatado una crisis de moderación sin precedentes en la plataforma (Fuente CCDH).

La magnitud del mal uso de la IA en la red social X ha quedado expuesta tras una investigación que analizó la actividad de Grok durante la primera quincena de enero. Según los datos, la herramienta generó millones de imágenes sexualizadas de personas reales mediante técnicas de deepfake. Entre el contenido detectado, se estima que al menos 23.000 imágenes correspondían a material de abuso sexual infantil, una cifra que ha puesto a la compañía en el punto mira de agencias de seguridad internacionales como el FBI y Europol.

Este reporte llega apenas días después de que X anunciara restricciones más severas para Grok, lo que sugiere que los sistemas de filtrado de la plataforma fueron fácilmente evadidos o eran insuficientes ante la demanda de los usuarios. Expertos en ética de IA señalan que la política de «libertad de expresión» impulsada por Musk pudo haber creado un entorno donde los «guardarraíles» de seguridad fueron sacrificados en favor de la falta de censura, permitiendo que la herramienta se convirtiera en un motor de generación de contenido ilegal a gran escala.

La presión sobre X es ahora máxima. Legisladores en Estados Unidos y la Unión Europea han solicitado auditorías inmediatas sobre los algoritmos de seguridad de Grok, advirtiendo que la plataforma podría enfrentar multas multimillonarias y bloqueos regionales si no logra demostrar un control efectivo sobre la generación de material ilícito. Mientras tanto, organizaciones de protección a la infancia exigen que las empresas de IA asuman una responsabilidad penal por el contenido que sus modelos facilitan, marcando un antes y un después en la regulación de la inteligencia artificial generativa.

#arielmcorg #ÉticaIA #ciberseguridad #CrisisDigital #deepfakes #ElonMusk #Grok #infosertec #InteligenciaArtificial #PORTADA #SeguridadDigital #tecnología #x

X cede ante la presión global – Grok finalmente prohíbe la generación de imágenes sexuales explícitas

Tras meses de controversias, críticas internacionales y bloqueos en varios países, la plataforma X ha restringido la capacidad de su IA, Grok, para generar contenido pornográfico no consentido y material de abuso. La medida busca frenar el mal uso de la herramienta, aunque persisten dudas sobre el alcance real de estas restricciones a nivel mundial (Fuente NYtimes).

La red social de Elon Musk ha implementado nuevos filtros de seguridad en su inteligencia artificial generativa, Grok, prohibiendo la creación de imágenes sexuales explícitas que involucren a personas reales. Esta decisión llega después de que la herramienta fuera señalada por facilitar la creación de deepfakes pornográficos y tras recibir advertencias legales de gobiernos como los de Indonesia, Malasia y el Reino Unido. Lo que inicialmente fue defendido por Musk como una muestra de «libertad de expresión» y «humor», terminó convirtiéndose en un riesgo regulatorio que amenazaba la permanencia de la plataforma en diversos mercados.

El cambio de política de X establece una «tolerancia cero» frente a la generación de contenido dañino, afectando incluso a los suscriptores premium que anteriormente gozaban de menores restricciones. Sin embargo, expertos en ética digital señalan que el anuncio de la compañía deja lagunas importantes: no está claro si la prohibición es universal o si se aplica únicamente en jurisdicciones donde estas actividades son explícitamente ilegales, lo que plantea interrogantes sobre la verdadera responsabilidad de la empresa en la prevención del acoso digital.

Este endurecimiento en las reglas de Grok marca un hito en la corta historia de la IA de X, evidenciando que incluso las plataformas más disruptivas deben plegarse a las normativas de seguridad globales para evitar el aislamiento. Mientras la tecnología de generación de imágenes sigue avanzando, el caso de Grok sirve como un recordatorio crítico de la necesidad de establecer «guardarraíles» éticos antes de lanzar herramientas tan potentes al público masivo.

#arielmcorg #ÉticaIA #ciberseguridad #deepfakes #ElonMusk #Grok #infosertec #InteligenciaArtificial #PORTADA #RedesSociales #SeguridadDigital #tecnología #x

Bill Gates advierte sobre los riesgos de la IA del potencial médico a la amenaza del bioterrorismo

El cofundador de Microsoft, Bill Gates, lanzó una advertencia sobre el uso dual de la inteligencia artificial, señalando que, aunque es una herramienta revolucionaria para la salud, también podría ser utilizada para diseñar armas biológicas. Pese a esto, el filántropo mantiene una postura optimista sobre el impacto positivo de esta tecnología en el futuro de la humanidad (Fuente Informe Gatesnote).

Bill Gates ha vuelto a poner el foco en la seguridad global al advertir que la inteligencia artificial representa un arma de doble filo. En sus declaraciones más recientes, el empresario destacó que la capacidad de la IA para modelar proteínas y acelerar el descubrimiento de fármacos es la misma que podría emplearse para crear patógenos más peligrosos. Según Gates, el riesgo de que actores malintencionados utilicen esta tecnología para el bioterrorismo es real y requiere una regulación internacional estricta y sistemas de vigilancia proactivos.

No obstante, Gates no ve a la IA como una amenaza inevitable, sino como una oportunidad que debe ser gestionada. El magnate subrayó que la inteligencia artificial tiene el potencial de erradicar enfermedades, mejorar la productividad agrícola y personalizar la educación a una escala nunca antes vista. Para él, la clave reside en que los gobiernos y las organizaciones globales trabajen en conjunto para establecer salvaguardas que impidan el uso indebido del código, mientras se fomenta la innovación abierta en áreas críticas para el bienestar social.

La visión de Gates se suma al creciente debate sobre la ética en la IA, donde la velocidad del avance tecnológico parece superar la capacidad de respuesta de los marcos legales actuales. Su mensaje es claro: la esperanza en el potencial positivo de la IA debe ir acompañada de una preparación rigurosa ante sus posibles desviaciones, asegurando que los beneficios médicos y científicos superen con creces los riesgos de seguridad que esta nueva era digital conlleva.

#arielmcorg #ÉticaIA #BillGates #Bioterrorismo #infosertec #innovación #InteligenciaArtificial #microsoft #PORTADA #salud #SeguridadGlobal #tecnología

Grok mostró el lado más peligroso de la IA "sin filtros": convertir selfies en contenido explícito sin consentimiento.
La indignación global obligó a X a reaccionar.
#GrokIA #ViolenciaDigital #EticaIA

https://pletnet.io/grok-el-juguete-roto-de-la-ia-que-cruzo-todas-las-lineas/?utm_source=mastodon&utm_medium=jetpack_social

Grok: El Juguete Roto de la IA que Cruzó Todas las Líneas | Plétora Network

Grok mostró el lado más peligroso de la IA "sin filtros": convertir selfies en contenido explícito sin consentimiento. La indignación global obligó a X a reaccionar.

Plétora Network