OpenAI acuerda despliegue de IA con el Departamento de Guerra

OpenAI anuncia un acuerdo con el Pentágono sobre el uso de su inteligencia artificial.

SN Redacción | EFE

Washington.- El consejero delegado de OpenAI, Sam Altman, anunció este viernes que la empresa tecnológica alcanzó un acuerdo con el Departamento de Guerra para que sus modelos de inteligencia artificial (IA) puedan ser usados en redes clasificadas.

Según dijo Altman en un comunicado en la red social X, el Pentágono se mostró de acuerdo en respetar los principios de prohibición del uso de su IA en vigilancia masiva a nivel nacional y «responsabilidad humana en decisiones en el uso de la fuerza, incluido en sistemas de armas autónomos».

«El Departamento de Guerra está de acuerdo con estos principios, los refleja en ley y políticas, y lo hemos añadido a nuestro acuerdo», aseguró Altman.

«Le pedimos al Departamento de Guerra que ofrezca los mismo términos a todas las empresas de IA, ya que en nuestra opinión todos deberían estar dispuestos a aceptar. Hemos expresados nuestro deseo de ver una desescalada lejos de acciones gubernamentales y legales y que conduzcan a acuerdos razonables», indicó el cofundador de OpenAI.

Las tensiones entre Anthropic y el Pentágono

Este acuerdo se da después de que OpenAI mostrara solidaridad con Anthropic en su intento de presionar al Pentágono para que le diera garantías que su IA no se usaría para vigilancia de estadounidenses o el uso de armas autónomas, algo que el creador de ChatGPT aseguró que también consideran necesario.

No obstante, tras meses de negociaciones y una tensa reunión entre Dario Amodei, CEO de Anthropic, y el secretario de Guerra, Pete Hegseth, ambas partes no consiguieron acercar posturas para esos límites de uso de su modelo Claude.

Esta misma tarde Anthropic aseguró que no cederá en su intento de que el Pentágono se comprometa a no usar su tecnología en vigilancia de estadounidenses y sistemas de armamento autónomo.

Hegseth acusó poco antes a Anthropic de «arrogancia» y prometió terminar con unos 200 millones de dólares en contratos de Defensa con la empresa e incluso declararla un «riesgo a la cadena de suministro», algo que vetaría a Anthropic de acceso a nuevos contratos y que está reservado normalmente para compañías de naciones adversarias.

Trump arremete contra Anthropic

El presidente estadounidense, Donald Trump, dijo en la red social Truth que Anthropic es una empresa de «la izquierda radical» y ordenó que todos los contratos con el Gobierno federal y con la tecnológica se cierren inmediatamente con un período de transición de seis meses.

Empleados de Google, Amazon y Microsoft también mostraron su solidaridad con la postura de Anthropic de negarse a permitir que su tecnología, que, por ejemplo, se usara en la planificación de la captura del mandatario Nicolás Maduro en enero, se use para espionaje interno y armas totalmente autónomas.

El acuerdo con Sam Altman anunciado esta noche podría servir para crear unas normas básicas en el cada vez más extendido uso de la IA en decisiones militares y análisis, después de que en los últimos meses se haya intensificado el debate en Silicon Valley sobre el alcance de estas herramientas para la defensa y en escenarios de combate.

–sn–

El consejero delegado de OpenAI, Sam Altman, en una fotografía de archivo. EFE/Aurelien Morissard

¡Conéctate con Sociedad Noticias! Suscríbete a nuestro canal de YouTube y activa las notificaciones, o bien, síguenos en las redes sociales: FacebookTwitter e Instagram.

También, te invitamos a que te sumes a nuestro canal de información en tiempo real a través de Telegram.

#NoticiasMX #PeriodismoParaTi #PeriodismoParaTiSociedadNoticias #Anthropic #armasAutónomas #éticaDeIA #Cdmx #Claude #DepartamentoDeGuerraEstadosUnidos #DonaldTrump #IAEnRedesClasificadas #Información #InformaciónMéxico #inteligenciaArtificialMilitar #México #Morena #noticia #noticias #NoticiasMéxico #NoticiasSociedad #OpenAI #Pentágono #redesClasificadasDefensa #SamAltman #seguridadIA #SN #Sociedad #SociedadNoticias #SociedadNoticiasCom #sociedadNoticias #SociedadNoticiasCom #supervisiónHumana #tecnologíaAvanzada #vigilanciaMasiva

Sacudida en OpenAI – Disuelven el equipo de «Alineación de Misión» encargado de la seguridad de la IA

OpenAI ha confirmado la disolución de su equipo de «Mission Alignment» (Alineación de Misión), el grupo interno responsable de garantizar que sus modelos de inteligencia artificial se desarrollen de manera segura, confiable y ética. Este movimiento, reportado inicialmente por Platformer y confirmado por TechCrunch este 11 de febrero de 2026, marca una nueva etapa en la reestructuración de la compañía hacia un enfoque más comercial y agéntico (Fuente Platformer).

El equipo de Alineación de Misión fue creado en septiembre de 2024 con un mandato claro: ser la «conciencia organizativa» de OpenAI. Su labor consistía en asegurar que los sistemas de IA, cada vez más potentes, siguieran las intenciones humanas incluso en situaciones adversas. Sin embargo, en un comunicado oficial, un portavoz de la empresa describió la disolución como una «reorganización rutinaria» dentro de una compañía que se mueve a gran velocidad, asegurando que los principios de seguridad ahora se integrarán directamente en los equipos de producto y plataforma.

Cambios clave en el liderazgo:

  • Josh Achiam, quien lideraba el equipo y era una de las voces más críticas y respetadas en temas de seguridad dentro de la empresa, no abandonará OpenAI. En su lugar, asumirá el nuevo cargo de Chief Futurist (Jefe Futurista). En este rol, Achiam se centrará en investigar el impacto a largo plazo de la Inteligencia Artificial General (AGI) y trabajará con físicos y técnicos para trazar la hoja de ruta de la compañía hacia una tecnología que «beneficie a toda la humanidad».
  • Reasignación de personal: Los otros seis o siete miembros del equipo han sido redistribuidos en diferentes áreas de la empresa, donde supuestamente continuarán trabajando en la robustez y auditoría de los modelos, pero ya no bajo una unidad independiente de supervisión.

Este no es el primer equipo de seguridad que desaparece en OpenAI. En 2024, la empresa ya disolvió el famoso equipo de «Superalineación», liderado en su momento por Ilya Sutskever y Jan Leike, tras profundas discrepancias sobre las prioridades de la empresa (seguridad frente a velocidad de lanzamiento). La desaparición de Mission Alignment refuerza la percepción de que OpenAI está priorizando la integración de funciones agénticas y comerciales —como el reciente lanzamiento de GPT-5.3-Codex— por encima de las estructuras de control externas.

Para los expertos de la industria, la dispersión de estos especialistas sugiere un cambio de filosofía: en lugar de tener un «árbitro» de seguridad, OpenAI busca que la seguridad sea parte del proceso de ingeniería común. Sin embargo, queda en el aire la duda de si este modelo descentralizado tendrá la fuerza necesaria para cuestionar el lanzamiento de productos si se detectan riesgos éticos o sociales profundos en el futuro.

#AGI #arielmcorg #ÉticaDigital #ciberseguridad #infosertec #innovación #InteligenciaArtificial #JoshAchiam #openai #PORTADA #SeguridadIA #TechNews #tecnología

OpenAI en busca de un «Guardián» – Contratan a un nuevo Jefe de Preparación para anticipar los riesgos de la IA

En un esfuerzo por reforzar la seguridad antes del lanzamiento de sus modelos más potentes, OpenAI ha iniciado la búsqueda de un nuevo Jefe de Preparación (Head of Preparedness). Según se observa en la búsqueda de trabajo publicada por la misma empresa, este puesto clave tiene la misión crítica de predecir, evaluar y mitigar los daños potenciales que la inteligencia artificial avanzada podría causar a la humanidad.

Misión: Prevenir el «Día del Juicio Final» Tecnológico

El equipo de Preparación actúa como una línea de defensa interna que pone a prueba los modelos antes de que lleguen al público.

Responsabilidades del nuevo puesto:

  • Evaluación de Riesgos Catastróficos: Identificar si un modelo tiene la capacidad de ayudar en la creación de armas químicas o biológicas, o si posee habilidades de ciberseguridad ofensiva.
  • Monitoreo de la «Autonomía de la IA»: Evaluar si los modelos pueden engañar a los humanos o actuar de manera independiente para eludir controles de seguridad.
  • Pruebas de «Red Teaming»: Coordinar ataques simulados contra los propios sistemas de OpenAI para encontrar vulnerabilidades antes de que lo hagan actores malintencionados.
  • Frenado de Emergencia: El Jefe de Preparación tiene la autoridad de recomendar la detención del despliegue de un modelo si los riesgos superan los umbrales de seguridad establecidos por la compañía.

¿Por qué ahora?

Este movimiento ocurre tras la salida de varios expertos en seguridad (incluyendo a Ilya Sutskever y Jan Leike) que expresaron su preocupación por el hecho de que OpenAI estaba priorizando el lanzamiento de productos comerciales por encima de la seguridad a largo plazo. Con la llegada de modelos como Sora y las futuras versiones de GPT, la empresa busca recuperar la confianza de los reguladores y el público.

El Marco de Seguridad de OpenAI

La empresa ha formalizado un «Cuadro de Mando de Riesgos» que clasifica las amenazas en cuatro niveles: Bajo, Medio, Alto y Crítico. Bajo estas reglas, OpenAI se compromete a no lanzar ningún modelo que alcance un nivel de riesgo «Alto» o superior en cualquiera de las categorías evaluadas.

#Algoritmos #arielmcorg #Ética #ciberseguridad #Futuro #infosertec #innovación #InteligenciaArtificial #openai #PORTADA #SamAltman #SeguridadIA #tecnología

Radiogeek – Inteligencia Artificial: ¿Herramienta de Apoyo o Riesgo de Salud Mental? -2775

En el programa de hoy les hablo de la inteligencia artificial, especialmente ChatGPT de OpenAI, enfocándose en las implicaciones para la salud mental. El informe de OpenAI reconoce que un pequeño pero significativo porcentaje de usuarios semanales utiliza el chatbot para discutir temas relacionados con la planificación o intención suicida, citando cifras que preocupan a la comunidad de salud mental. Se enfatiza que la inteligencia artificial es una herramienta que, si bien es útil y no debe ser resistida, no debe usarse para sustituir el consejo médico o psicológico profesional, especialmente en temas delicados donde ya ha habido incidentes. Finalmente, abogo por la autocrítica en cómo se utiliza esta tecnología, asegurando que se emplee para facilitar tareas y aportar, en lugar de solucionar completamente la vida o ser utilizada para hacer trampa en exámenes.

Informe oficial desde OpenAi, clic enlace.

https://open.spotify.com/episode/3QndHiq2dolEqJS8e7aRP7

Espero sus comentarios y por supuesto que les sirva para tomar buenas decisiones en la vida tecnológica que cada día más nos sorprende a todos…

#arielmcorg #chatgpt #Crisis #infosertec #InteligenciaArtificial #openai #PORTADA #PrevenciónSuicidio #RADIOGEEK #SaludMental #SeguridadIA #tecnología

¡🔥Jan Leike abandona OpenAI y se une a #Anthropic! 💥Liderará equipo de #Súper-alineación enfocado en #SeguridadIA y técnicas como #SupervisiónEscalable 🤖 ¡Anthropic se posiciona como más centrada en #ControlIA! https://bit.ly/3wTXmoY
Leike lidera equipo de súper-alineación en Anthropic

Jan Leike dejó OpenAI para unirse a Anthropic y liderar equipo de súper-alineación centrado en seguridad y control de IA