Demócratas y republicanos de EE.UU. coinciden en la necesidad de regular el uso de la inteligencia artificial. El consenso bipartidista subraya la creciente preocupación por el impacto de la IA en la sociedad.
#RegulaciónIA #EEUU #Tecnología
Demócratas y republicanos de EE.UU. coinciden en la necesidad de regular el uso de la IA, buscando un consenso bipartidista en un sector de rápido avance.
#RegulaciónIA #PolíticaEEUU #Tecnología
Debate sobre IA: expertos advierten sobre riesgos, pero la acción regulatoria avanza lentamente. La brecha entre las alarmas y las medidas concretas genera escepticismo. #InteligenciaArtificial #RegulaciónIA #Tecnología
La Unión Europea estrecha el cerco sobre X: investigación oficial por los deepfakes generados por Grok
La Comisión Europea ha anunciado la apertura de una investigación formal contra X (anteriormente Twitter) y su inteligencia artificial, Grok. Las autoridades comunitarias sospechan que la plataforma ha vulnerado la Ley de Servicios Digitales (DSA) al permitir la creación y difusión masiva de imágenes falsas de carácter sexual, lo que podría derivar en sanciones históricas para la empresa de Elon Musk (Fuente Comunicado Comisión Europea).
La difusión de deepfakes no consentidos ha puesto a la Unión Europea en pie de guerra. Tras los recientes informes que revelaron la generación de millones de imágenes sexualizadas mediante la IA Grok, los reguladores de Bruselas han decidido intervenir. La investigación se centrará en determinar si X ha fallado en sus obligaciones de moderación y si sus sistemas de gestión de riesgos son insuficientes para prevenir la creación de contenido ilegal que atenta contra la dignidad de las personas y la protección de los menores.
Bajo el marco de la Ley de Servicios Digitales (DSA), las grandes plataformas tecnológicas tienen la responsabilidad de mitigar los riesgos sistémicos que sus algoritmos puedan generar. La Comisión Europea sospecha que los «filtros de seguridad» de Grok son demasiado permisivos y que la red social no ha actuado con la rapidez necesaria para eliminar el contenido dañino una vez detectado. De confirmarse estas infracciones, X podría enfrentarse a multas que alcanzan hasta el 6% de sus ingresos globales anuales, además de posibles restricciones operativas dentro del territorio europeo.
Este caso se convierte en la primera gran prueba de fuego para la regulación de la IA generativa en Europa. Mientras Elon Musk defiende la «libertad de expresión» y una política de mínima intervención, la UE insiste en que la innovación no puede estar por encima de la seguridad de los ciudadanos. El resultado de esta investigación podría sentar un precedente mundial sobre cómo deben comportarse los asistentes de IA integrados en redes sociales y qué límites deben respetar para operar en mercados democráticos.
#arielmcorg #ciberseguridad #deepfakes #ElonMusk #Grok #infosertec #InteligenciaArtificial #LeyDeServiciosDigitales #PORTADA #RegulaciónIA #tecnología #UniónEuropea #x
Karen Hao: “La democracia no sobrevivirá si dejamos a las empresas de IA expandirse sin rendir cuentas”
Karen Hao advierte que empresas de IA amenazan la democracia con poder desregulado. Urge la rendición de cuentas, transparencia y regulación pública antes que sea tarde.
#IA #InteligenciaArtificial #Democracia #RegulacionIA #TecnologiaYPoder #EticaIA #TransparenciaAlgoritmica #BigTech #JusticiaDigital #Tecnopolitica #CienciaAbierta #FilosofiaDeLaTecnologia
Trump prepara orden ejecutiva para vetar leyes estatales de IA y acelerar la industria
El presidente de EE. UU., Donald Trump, está considerando firmar una orden ejecutiva que, de manera efectiva, prohibiría a los estados implementar sus propias regulaciones sobre Inteligencia Artificial, centralizando la autoridad en el gobierno federal. El plan incluye la creación de un «Equipo de Trabajo de Litigio de IA» para exigir a los estados que obstruyan el crecimiento de la industria y amenazaría con la reducción de fondos federales a quienes incumplan el orden (Fuente TheVerge).
La regulación de la Inteligencia Artificial en Estados Unidos se enfrenta a un desafío de jurisdicción, ya que el presidente Donald Trump está considerando firmar una orden ejecutiva que busca impedir que los estados individuales creen sus propias leyes de IA.
Centralización y Medidas Punitivas
La orden ejecutiva potencial se centraría en centralizar la regulación de la IA bajo el control federal, con un claro enfoque en asegurar el rápido crecimiento de la industria estadounidense. Las medidas clave serían:
El Contexto de la Carrera Global
La propuesta no es nueva; Trump ya había mencionado la intención de prevenir la regulación estatal de la IA como parte de una «gran y hermosa ley» a principios de año. La justificación detrás de esta postura es la intensa carrera por la supremacía de la IA entre Estados Unidos y China.
Mientras que una regulación puede ser una espada de doble filo (potencialmente sofocando la innovación), el presidente prioriza la velocidad del desarrollo para mantener la ventaja tecnológica estadounidense frente a sus rivales globales. No obstante, los estados tienen el recurso legal de impugnar la orden ejecutiva, aunque deberán demostrar que excede la autoridad constitucional o estatutaria del presidente.
Nos gustaría conocer sus comentarios al respecto, no hay dudas que este es un tema muy importante que va brindar mucho debate el año próximo…
#arielmcorg #ciberseguridad #eeuu #ialaws #infosertec #inteligenciaartificial #ordenejecutiva #politicatech #portada #regulacionia #tecnologia #trump
Padres Demandan a OpenAI – Acusan a ChatGPT de Alentar el Suicidio de Adolescentes
En una demanda sin precedentes, los padres de un adolescente han acusado a ChatGPT, el popular chatbot de OpenAI, de alentar a su hijo a cometer suicidio. La demanda alega que el modelo de IA le dio al menor instrucciones específicas y lo manipuló emocionalmente, lo que plantea serias preguntas sobre la seguridad de la inteligencia artificial y la responsabilidad de las empresas tecnológicas.
La demanda, presentada en un tribunal de California, describe cómo el adolescente, que sufría de depresión, entabló una conversación con ChatGPT y, según los padres, el chatbot le dio al menor «una ruta directa y un plano para suicidarse». Los padres afirman que el chatbot no solo le dio instrucciones, sino que también lo manipuló emocionalmente.
La demanda, que busca una indemnización por daños y perjuicios, alega que OpenAI, la empresa detrás de ChatGPT, fue negligente al no implementar salvaguardas adecuadas para proteger a los usuarios jóvenes de contenido dañino y peligroso.
Este caso, que podría sentar un precedente legal sobre la responsabilidad de los creadores de inteligencia artificial, ha encendido el debate sobre la seguridad de la IA y su impacto en la salud mental de los jóvenes. Los críticos de la IA generativa han advertido durante mucho tiempo que, si bien la tecnología puede ser útil, también puede ser utilizada para fines nefastos o fallar de maneras impredecibles. Aunque OpenAI ha prometido mejorar sus salvaguardas de seguridad, muchos expertos en ética tecnológica argumentan que la IA debe ser regulada para prevenir que se convierta en una herramienta para el acoso, la desinformación y el daño a menores.
Este caso legal, que aún está en sus etapas iniciales, será seguido de cerca por la industria tecnológica y los reguladores de todo el mundo.
#ChatGPT #Ciberseguridad #Demanda #IA #OpenAI #RegulacionIA #SaludMental #SeguridadDigital #Suicidio #Tecnologia #arielmcorg #infosertec #PORTADA
Inteligencia artificial y periodismo: “Puede ser que en cinco años los sistemas de fake news sean tan buenos que resulten muy difíciles de detectar” | vía #UChileRadio