Cosas que he aprendido a lo largo de estas semanas trabajando con la IA:
- Ignora órdenes directas y explícitas.
- Comete errores básicos, incluso con datos evidentes enfrente.
- Un pequeño matiz al explicarle un contexto puede generar respuestas muy diferentes sobre el mismo escenario.
- Una errata de una letra puede generar una respuesta totalmente equivocada, pero siempre la expondrá de manera muy convincente.
- Estudia errores y nunca dice "no sé" , si es necesario se inventa causas, para las que da soluciones que obviamente no tienen nada que ver, pero como en el caso anterior, con un aplomo total.
En conclusión, para que una IA dé buenos resultados, debe tener datos claros, un patrón de trabajo ya establecido, un contexto que no sea ambiguo y un usuario con experiencia que sepa exponerle lo que quiere y cómo lo quiere, sabiendo sus limitaciones.
Sobre las respuestas que da, ese usuario debe ser consciente de que la IA puede mentir e inventar todo lo que sea necesario para satisfacerlo. Si la orientas en una dirección, elaborará toda una historia con eso como base, reforzando tus prejuicios.
¿Por qué cuento todo esto? Porque por muy avanzada que sea, si usas una IA para la guerra (como ya han anunciado a bombo y platillo), imagina el resultado, sabiendo todo lo anterior. Si quieres enemigos, te dará enemigos. Si buscas una excusa para atacar, te dará una amenaza. Cualquier hospital será un cuartel general, cualquier escuela, una reunión de insurgentes. Cuando le preguntes alternativas, siempre recomendará disparar dos veces, para asegurarse.
La IA es el mejor cómplice que un gobierno criminal y de gatillo fácil pueda tener.