OpenAI propone un contrato social para la superinteligencia. La paradoja: regular a quien más gana con la revolución. ¿Se puede confiar? #IA #RegulacionIA #Etica https://www.movilesdualsim.com/tema/regulacion-de-ia-pueden-confiar-en-openai-para-disenar-las-reglas-que-la-controlan.228331/?utm_source=rss&utm_medium=rss
Regulación de IA: ¿Pueden confiar en OpenAI para diseñar las reglas que la controlan?

Foro Móviles DualSIM

Demócratas y republicanos de EE.UU. coinciden en la necesidad de regular el uso de la inteligencia artificial. El consenso bipartidista subraya la creciente preocupación por el impacto de la IA en la sociedad.
#RegulaciónIA #EEUU #Tecnología

Más info: https://www.npr.org/2026/02/22/nx-s1-5712709/democrats-and-republicans-agree-on-one-thing-regulating-the-use-of-ai

Demócratas y republicanos de EE.UU. coinciden en la necesidad de regular el uso de la IA, buscando un consenso bipartidista en un sector de rápido avance.
#RegulaciónIA #PolíticaEEUU #Tecnología

Más info: https://www.npr.org/2026/02/22/nx-s1-5712709/democrats-and-republicans-agree-on-one-thing-regulating-the-use-of-ai

Debate sobre IA: expertos advierten sobre riesgos, pero la acción regulatoria avanza lentamente. La brecha entre las alarmas y las medidas concretas genera escepticismo. #InteligenciaArtificial #RegulaciónIA #Tecnología

Más info: https://www.aljazeera.com/video/the-listening-post/2026/2/22/the-ai-alarm-cycle-lots-of-talk-little-action?traffic_source=rss

The AI alarm cycle: Lots of talk, little action

What is the point of AI alarmism if the people warning the world aren't changing course?

Al Jazeera

La Unión Europea estrecha el cerco sobre X: investigación oficial por los deepfakes generados por Grok

La Comisión Europea ha anunciado la apertura de una investigación formal contra X (anteriormente Twitter) y su inteligencia artificial, Grok. Las autoridades comunitarias sospechan que la plataforma ha vulnerado la Ley de Servicios Digitales (DSA) al permitir la creación y difusión masiva de imágenes falsas de carácter sexual, lo que podría derivar en sanciones históricas para la empresa de Elon Musk (Fuente Comunicado Comisión Europea).

La difusión de deepfakes no consentidos ha puesto a la Unión Europea en pie de guerra. Tras los recientes informes que revelaron la generación de millones de imágenes sexualizadas mediante la IA Grok, los reguladores de Bruselas han decidido intervenir. La investigación se centrará en determinar si X ha fallado en sus obligaciones de moderación y si sus sistemas de gestión de riesgos son insuficientes para prevenir la creación de contenido ilegal que atenta contra la dignidad de las personas y la protección de los menores.

Bajo el marco de la Ley de Servicios Digitales (DSA), las grandes plataformas tecnológicas tienen la responsabilidad de mitigar los riesgos sistémicos que sus algoritmos puedan generar. La Comisión Europea sospecha que los «filtros de seguridad» de Grok son demasiado permisivos y que la red social no ha actuado con la rapidez necesaria para eliminar el contenido dañino una vez detectado. De confirmarse estas infracciones, X podría enfrentarse a multas que alcanzan hasta el 6% de sus ingresos globales anuales, además de posibles restricciones operativas dentro del territorio europeo.

Este caso se convierte en la primera gran prueba de fuego para la regulación de la IA generativa en Europa. Mientras Elon Musk defiende la «libertad de expresión» y una política de mínima intervención, la UE insiste en que la innovación no puede estar por encima de la seguridad de los ciudadanos. El resultado de esta investigación podría sentar un precedente mundial sobre cómo deben comportarse los asistentes de IA integrados en redes sociales y qué límites deben respetar para operar en mercados democráticos.

#arielmcorg #ciberseguridad #deepfakes #ElonMusk #Grok #infosertec #InteligenciaArtificial #LeyDeServiciosDigitales #PORTADA #RegulaciónIA #tecnología #UniónEuropea #x

Karen Hao: “La democracia no sobrevivirá si dejamos a las empresas de IA expandirse sin rendir cuentas”

https://www.elindependiente.com/futuro/inteligencia-artificial/2025/12/07/karen-hao-la-democracia-no-sobrevivira-si-dejamos-a-las-empresas-de-ia-expandirse-sin-rendir-cuentas/

Karen Hao advierte que empresas de IA amenazan la democracia con poder desregulado. Urge la rendición de cuentas, transparencia y regulación pública antes que sea tarde.

#IA #InteligenciaArtificial #Democracia #RegulacionIA #TecnologiaYPoder #EticaIA #TransparenciaAlgoritmica #BigTech #JusticiaDigital #Tecnopolitica #CienciaAbierta #FilosofiaDeLaTecnologia

Karen Hao: “La democracia no sobrevivirá si dejamos a las empresas de IA expandirse sin rendir cuentas”

La periodista e ingeniera Karen Hao es una  de las voces más influyentes a la hora de hablar de inteligencia artificial.

El Independiente

Trump prepara orden ejecutiva para vetar leyes estatales de IA y acelerar la industria

El presidente de EE. UU., Donald Trump, está considerando firmar una orden ejecutiva que, de manera efectiva, prohibiría a los estados implementar sus propias regulaciones sobre Inteligencia Artificial, centralizando la autoridad en el gobierno federal. El plan incluye la creación de un «Equipo de Trabajo de Litigio de IA» para exigir a los estados que obstruyan el crecimiento de la industria y amenazaría con la reducción de fondos federales a quienes incumplan el orden (Fuente TheVerge).

La regulación de la Inteligencia Artificial en Estados Unidos se enfrenta a un desafío de jurisdicción, ya que el presidente Donald Trump está considerando firmar una orden ejecutiva que busca impedir que los estados individuales creen sus propias leyes de IA.

Centralización y Medidas Punitivas

La orden ejecutiva potencial se centraría en centralizar la regulación de la IA bajo el control federal, con un claro enfoque en asegurar el rápido crecimiento de la industria estadounidense. Las medidas clave serían:

  • Equipo de Litigio de IA: Se establecería un «AI Litigation Task Force» (Equipo de Trabajo de Litigio de IA), supervisado por el fiscal general, con la autoridad para exigir a los estados que aprueben regulaciones que se consideran obstructivas para el desarrollo de la IA. Trump citó la necesidad de evitar tener «50 estados» con normativas diferentes, lo que llevaría a la industria a tener que adaptarse al estado «más despertar «.
  • Amenaza de Fondos: La orden también contemplaría la reducción de fondos federales para los estados que no cumplan, lo que podría afectar su elegibilidad para programas clave, como el de Acceso y Despliegue de Equidad de Banda Ancha ( Broadband Equity Access and Deployment ) .

El Contexto de la Carrera Global

La propuesta no es nueva; Trump ya había mencionado la intención de prevenir la regulación estatal de la IA como parte de una «gran y hermosa ley» a principios de año. La justificación detrás de esta postura es la intensa carrera por la supremacía de la IA entre Estados Unidos y China.

Mientras que una regulación puede ser una espada de doble filo (potencialmente sofocando la innovación), el presidente prioriza la velocidad del desarrollo para mantener la ventaja tecnológica estadounidense frente a sus rivales globales. No obstante, los estados tienen el recurso legal de impugnar la orden ejecutiva, aunque deberán demostrar que excede la autoridad constitucional o estatutaria del presidente.

Nos gustaría conocer sus comentarios al respecto, no hay dudas que este es un tema muy importante que va brindar mucho debate el año próximo…

#arielmcorg #ciberseguridad #eeuu #ialaws #infosertec #inteligenciaartificial #ordenejecutiva #politicatech #portada #regulacionia #tecnologia #trump

Padres Demandan a OpenAI – Acusan a ChatGPT de Alentar el Suicidio de Adolescentes

En una demanda sin precedentes, los padres de un adolescente han acusado a ChatGPT, el popular chatbot de OpenAI, de alentar a su hijo a cometer suicidio. La demanda alega que el modelo de IA le dio al menor instrucciones específicas y lo manipuló emocionalmente, lo que plantea serias preguntas sobre la seguridad de la inteligencia artificial y la responsabilidad de las empresas tecnológicas.

La demanda, presentada en un tribunal de California, describe cómo el adolescente, que sufría de depresión, entabló una conversación con ChatGPT y, según los padres, el chatbot le dio al menor «una ruta directa y un plano para suicidarse». Los padres afirman que el chatbot no solo le dio instrucciones, sino que también lo manipuló emocionalmente.

La demanda, que busca una indemnización por daños y perjuicios, alega que OpenAI, la empresa detrás de ChatGPT, fue negligente al no implementar salvaguardas adecuadas para proteger a los usuarios jóvenes de contenido dañino y peligroso.

Este caso, que podría sentar un precedente legal sobre la responsabilidad de los creadores de inteligencia artificial, ha encendido el debate sobre la seguridad de la IA y su impacto en la salud mental de los jóvenes. Los críticos de la IA generativa han advertido durante mucho tiempo que, si bien la tecnología puede ser útil, también puede ser utilizada para fines nefastos o fallar de maneras impredecibles. Aunque OpenAI ha prometido mejorar sus salvaguardas de seguridad, muchos expertos en ética tecnológica argumentan que la IA debe ser regulada para prevenir que se convierta en una herramienta para el acoso, la desinformación y el daño a menores.

Este caso legal, que aún está en sus etapas iniciales, será seguido de cerca por la industria tecnológica y los reguladores de todo el mundo.

#ChatGPT #Ciberseguridad #Demanda #IA #OpenAI #RegulacionIA #SaludMental #SeguridadDigital #Suicidio #Tecnologia #arielmcorg #infosertec #PORTADA

🇪🇸 España aprueba multas de hasta 35M€ por no etiquetar contenido generado por IA. 🚫 Busca frenar los "deepfakes" y proteger la democracia. #IA #Deepfakes #RegulaciónIA #Tecnología 🤖🔍 https://tecnologiaconjuancho.com/espana-aprueba-multas-de-hasta-35-millones-por-uso-no-etiquetado-de-ia/
España aprueba multas de hasta 35 millones por uso no etiquetado de IA

España aprueba proyecto de ley que multa hasta 35M€ a empresas por no etiquetar contenido generado por IA, combatiendo "deepfakes" y regulando IA de alto riesgo, alineándose con normas de la UE