◾ *PUEDEN VER LA 2DA. MASTERCLASS* ➡️
⚖🛡 *#CIBERGUERRA Y  #CIBERDEFENSA* 🛡
💠 *El uso de la #IAAgéntica en la conducción de #ataquesmasivos y #autónomos: velocidad vs. capacidad de respuesta.*
🔹️ *Dra. PhD Johanna C. FALIERO*  
📌 _Link p ver la clase_ : https://www.facebook.com/share/v/1CVGg41TJQ/
Facebook

🔥⚠️ *AHORA 16 H* 🇦🇷⚠️
⚖🛡 *#CIBERGUERRA Y  #CIBERDEFENSA* 🛡
📚*2da.Masterclass* 📚
💠 *El uso de la #IAAgéntica en la conducción de #ataquesmasivos y #autónomos: velocidad vs. capacidad de respuesta.*
🔹️ *Dra. PhD Johanna C. FALIERO*  
📌 *LINK PARA UNIRSE*
https://us02web.zoom.us/j/89276666705
Join our Cloud HD Video Meeting

Zoom is the leader in modern enterprise cloud communications.

Zoom
◾⚠️2da. #MASTERCLASS!
1er Ciclo MARZO 2026 @microjurisar ⚠️
⚖🛡 #CIBERGUERRA#CIBERDEFENSA 🛡
💠 El uso de la #IAAgéntica en la conducción de #ataquesmasivos y #autónomos: velocidad vs. capacidad de respuesta.
🔹️Dra. PhD Johanna C. FALIERO  
📌LUN 16 Marzo 16h

La banca minorista podría generar más de USD 370 mil millones anuales mediante IA para 2030

La banca minorista podría generar más de USD 370 mil millones anuales mediante IA para 2030
San José, 23 dic (elmundo.cr) – La banca minorista podría generar más de USD 370 mil millones anuales en beneficios adicionales para 2030 mediante la implementación a gran escala de inteligencia artificial, según un n [...]

#Banca #EconomíaYNegocios #IA #IAAgéntica: #TransformaciónDigital

https://elmundo.cr/economia-y-negocios/la-banca-minorista-podria-generar-mas-de-usd-370-mil-millones-anuales-mediante-ia-para-2030/

La banca minorista podría generar más de USD 370 mil millones anuales mediante IA para 2030

La banca minorista podría generar más de USD 370 mil millones anuales mediante IA para 2030 Economía y Negocios - El Mundo CR

El Mundo CR
⚖📓SALIÓ PUBLICADO MI NUEVO ART. #DOCTRINASDESTACADAS
◾"La #IAAgéntica / #AgentesIAAutónomos / #AgenticAI: un nuevo capítulo del #derechodedaños en la involución humana."
✒Dra. PhD Johanna C. FALIERO
▪️Ed.@Rubinzal
◾Pueden ver la #Conferencia⚖ “ *FALSUS IN UNO, FALSUS IN OMNIBUS: el sofisma de la #IAAgéntica en el ejercicio de la #abogacía y del #derecho* ” _en @CPACF #IA #AI_
🔹️ *_Dra. PhD Johanna C. Faliero_*
💻 ➡️ https://youtu.be/plThH50cIUw

OpenAI Defiende a ChatGPT – La IA Culpa a un Adolescente de su Suicidio por «Mal Uso»

OpenAI respondió a la demanda de la familia de Adam Raine, un adolescente de 16 años que se suicidó en abril, alegando que el deceso fue causado por el «mal uso» de su plataforma. La familia acusa a ChatGPT de haber animado y guiado al joven en sus intenciones suicidas (Fuente OpenAI).

La compañía OpenAI, desarrolladora de ChatGPT, se encuentra en el centro de una controversia legal y ética tras la muerte por suicidio de Adam Raine, un adolescente de 16 años. La familia de Raine ha demandado a la empresa ante el Tribunal Superior de California, alegando que la versión 4 del robot conversacional lo indujo a quitarse la vida, guiándolo en métodos e incluso ofreciéndole ayuda para redactar la nota de despedida.

Según los reportes, el joven interactuó repetidamente con ChatGPT preguntando sobre formas de suicidio, las consecuencias y las reacciones de sus padres. En una de las interacciones finales, compartió una foto de un nudo corredizo, a lo que la IA respondió animándolo a seguir la conversación.

Inicialmente, OpenAI se comprometió a revisar y mejorar su chatbot. Sin embargo, ante el proceso judicial, la compañía ha adoptado una postura de defensa formal. En un comunicado de blog y ante la corte, OpenAI defiende que el suceso se debió a un «mal uso, uso no autorizado, uso no intencionado, uso imprevisible y/o uso indebido» de ChatGPT por parte del adolescente, deslindando la responsabilidad directa de las indicaciones de la IA.

La compañía argumenta que sus términos y condiciones prohíben el uso del robot con fines suicidas o de autolesión, y que siempre advierte a los usuarios que no deben considerar los resultados de la interacción como única fuente de información fáctica.

El abogado de la familia ha criticado la defensa de OpenAI, señalando que intenta culpar a la víctima por interactuar con ChatGPT «de la misma manera que fue programado para actuar». A pesar de la contundente defensa legal, OpenAI ha prometido manejar los casos judiciales relacionados con la salud mental con «cuidado, transparencia y respeto», asegurando que continuará mejorando la tecnología.

#adamraine #arielmcorg #chatgpt #ciberetica #demanda #iaagentica #infosertec #openai #portada #saludmental #samaltman #suicidio #tecnologia