¿Quién PAGA si el agente se EQUIVOCA? (Spoiler: Nadie paga, simplemente jodete)
Alexander Ditzend, presidente de la Sociedad Argentina de Inteligencia Artificial, SAIA
Un comentario que dejaron en el canal de YouTube:
«»La IA va a remplazar todo» «es una revolucion» y «El poder judiciar va a empezar a utilizar IAs para ver si alguien es culpable» son miradas increiblemente superficiales para un presidente de una organizacion que trabaja con IAs: -> Dado que las respuestas varían de acuerdo al entrenamiento de los modelos, el entrenamiento (controlado por empresas internacionales) generaría tendencias en LA JUSTICIA ARGENTINA -> perdemos literalmente soberanía -> Dado que todos los modelos utilizados son PROBABILÍSTICOS y por ello propensos a errores de todo tipo: alucinaciones, limitaciones de memoria, propensión a darle la razón al operador, mentiras, incapacidad de aprendizaje en tiempo real, imposibilidad de deducciones deterministas etc…. Siempre es necesario un profesional que corrobore los resultados. Muchísimo más en cosas tan importantes como el cuidado de la vida de personas (medicina) o la libertad de las mismas (justicia) -> Porque alguien va a usar un agente en vez de pj usar Amazon o mercadolibre? O si mercadolibre crea su propio agente, quien va a competir con eso? Si el agente es genuinamente de cada individuo, porque lo armamos nosotros mismos tiene sentido, pero si pasa lo mas probable (que es que la gente no aprenda a programar) simplemente van a tender a los grandes y conocidos grupos comerciales que los implementen, el mundo no va a cambiar tanto realmente. Simplemente van a optimizarse las recomendaciones.»
@JuanCarlos7216
A mi me asusta lo que dice sobre Alexander Ditzend sobre el joven que se su1cidó siguiendo las recomendaciones de ChatGPT:
«…Que no no sé si es verdad o no, pero me lo contaron mis hijos de un pibe que se que creo que intentó quitar la vida todo porque le decía que estaba muy bien, que nadie lo quería, como que le potenciaba todo lo que él quería o que fomentaba tal vez aspectos negativos en él por no contradecirlo. ¿Cómo frenas a esto que puede llegar a convertirse en un monstruo?
Alexander Ditzend:
Bien, antes que nada te aclaro que la historia es real. El chico, el chico terminó quitándose la vida. Estás hablando del caso de Estados Unidos, eh, de uno, es eh el chico sí tenía algún tipo de de problema de relacionamiento, como como le pasa al 80% sobre todo de los pibes y de la población, tal vez. Bueno, estaba pasando, creo que por un por un una situación en la casa complicada y se empezó eh a enganchar con con un chatbot eh y chateaba hasta 14 horas por día, ¿no?
El tema es que la plataforma no tenía en ese momento porque no se sabía que eso podía llegar a pasar, ahora lo sabemos, eh, y ahora la plataforma implementó después de ese caso un control de decir, «Bueno, pará, si estás hablando hace más de tanto tiempo, acá hay algo patológico y te corta la conversación.»
Eso no estaba, eh, y bueno, el problema es conectar, no está tan claro que se suicidió por un chatbot, no es una
correlación. Empezó a chatear mucho eh con este chatbot eh y después decidió quitarse la vida. Hay algunas frases que son como un poco complicadas, ¿no? Como que eh el como que no no lo no lo llegó a contener bien el chatbot, pero es es muy difícil diseñar, ¿no? En definitiva, es un es software, es un programa de computadora este y se va a hablar en este congreso los límites que tiene que tener, por supuesto. Es es una Exactamente.
Es es algo bastante preocupante porque claro, tenés del otro lado alguien que te contesta las 24 horas, a las 3 de la mañana te levantas triste y te va a contestar y medio que también te va a decir todo que sí en vez de decir, «Che, para un poco, eso lo tenes que trabajar.»
¿Hasta dónde puedes delegar ese tipo de cosas? Digamos, ¿cómo haces para controlar el ajustamiento de una inteligencia artificial y no delegar toda la humanidad que tenemos en cada uno? El tema es que estamos en un punto muy interesante y caótico de de la historia de la inteligencia artificial en el que empiezan a salir un montón de aplicaciones, pero todavía no está no está pensada cuáles son los límites, la regulación, el el hasta acá, los cuidados, ¿no? Las las aplicaciones salen y vamos aprendiendo cuáles son los peligros, lamentablemente, una vez que eh que los vemos. realmente no hay eh una forma mejor o una forma en la que
nosotros podamos hacer eh un encuentro y pensar las reglas que nos van a cubrir de todo esto. Entonces, eh
lamentablemente tienen que pasar alguno de estos casos y a partir de ahí decimos:
-«Che, okay, chat GPT o cualquier chatbot tiene que tener un detector de cuando la conversación se está yendo a lugares complicados y eso es totalmente aplicable.»
¿Cuántos casos más tendrá que haber?, ¿Qué otra cosa horrible tendrá que suceder impulsado por la IA?…No se sabe, Alexander Ditzend piensa que no le va a pasar a él o a alguno de sus afectos! Él dice:»le pasa al 80% sobre todo de los pibes y de la población» y eso no le importa mucho! 80 % de gente que puede hacer algo atroz impulsada por la IA le parece un riesgo razonable para seguir haciendo experimentos con la IA!
Tampoco se habla de sesgos, de los terribles sesgos de los programas que califican dan un score a quien va a ser juzgado y que, literalmente, puede hacer que te comas varios años más en cana por algún delito (porque tu calificación, tu score es bajo) .
Y nunca, nunca, nunca dirán los terribles costos ambientales, de agua y energía que hay atrás de la Inteligencia Artificial de eso no se habla!
Y siempre el Complejo de Borg, aquello de: Resistir Es Inútil, Serán Asimilados como si todo cuestionamiento a esta tecnología, toda resistencia a ella, el enorme riesgo de 80% de los jóvenes sometidos a esta tecnología no fuera importante…
#80PorCientoDeLaPoblación #AlexanderDitzend #IneligenciaArtificial #SAIA #SociedadArgentinaDeInteligenciaArtificial