Una historia visual que ayuda a entender cuándo un algoritmo acierta. https://riscanvi.bikolabs.io
https://bikolabs.biko2.com
[CW: Justicia algorítmica. Hilo largo.]
¿Qué queremos decir cuando quienes nos dedicamos a ello decimos que estamos enormemente preocupadis por la aplicación generalizada de la #IA en procesos decisorios que tienen que ver con personas? ¿Puede ser una IA justa, imparcial, ecuánime, limpia? ¿Existe la #JusticiaAlgorítmica? ¿Podemos aspirar a algoritmos que no ahonden las desigualdades?
Un péiper reciente de @randomwalker et al. consigue arrojar buena luz sobre el asunto. Veamos. 🧵
Helena Matute, Naroa Martínez, and I have just published an article about AI and bias in the journal RIEV: https://www.eusko-ikaskuntza.eus/eu/riev/human-cognitive-biases-present-in-artificial-intelligence/rart-24782/
In this article, we review the evidence of human cognitive biases present in artificial intelligence and discuss examples of how these biases influence AI and human-AI interactions.
These cognitive biases can affect AI at the different moments or phases of its lifecycle in which humans are involved: data collection; AI model selection or development; and AI model deployment. The introduction of human cognitive biases at these moments promotes the perpetuation and amplification of human biases in AI algorithms.
Thus, we present empirical evidence and examples of confirmation bias, representativeness bias, anchoring bias, primacy effect, and causal illusion.
Our main conclusion is that human cognitive biases are present in AI, as there is much evidence in this regard, and humans are involved in the AI lifecycle.
Enjoy the article!
The Turing Test poisoned the minds of generations of AI enthusiasts, because its criteria is producing text that persuades observers it was written by a human.
The result? Generative AI text products designed to "appear real" rather than produce accurate or ethical outputs.
It *should* be obvious why it's problematic to create a piece of software that excels at persuasion without concern for accuracy, honesty or ethics. But apparently it's not.
Según este paper de Langer y colaboradores (2022) (https://doi.org/10.1145/3491102.3517527), en una tarea de evaluación de un trabajo, decir que la va a realizar una #AI genera menos confianza en que la va a desempeñar bien, que si usamos otros términos como #statisticalmodel o #robot.
Y el término #AI también transmite que su desempeño va a ser más injusto que si se dice que la tarea la va a realizar un #algorithm o #statisticalmodel.
Aunque es un estudio que se basa en autoreportes y viñetas (por lo que no podemos extrapolar los resultados a cómo sería el comportamiento en un contexto de uso real) y las diferencias entre los términos no parecen abrumadoras, en #bikolabs nos preguntamos si no habremos quemado ya el término #AI de tanto usarlo.
¿Opiniones?
RT @maribelcarod@twitter.com
En un mundo donde lo más importante es el producto, ser un producto, ser productiva y producir rápido y sin parar, a mí me apetece más que nunca componer, rascar y manchar leeeeeentamente una hoja de papel✍🥲 #cartoon #comic #NoAI #NoAiArt #sketching #creepy #movies #inking
🐦🔗: https://twitter.com/maribelcarod/status/1604452558860271616
“En un mundo donde lo más importante es el producto, ser un producto, ser productiva y producir rápido y sin parar, a mí me apetece más que nunca componer, rascar y manchar leeeeeentamente una hoja de papel✍🥲 #cartoon #comic #NoAI #NoAiArt #sketching #creepy #movies #inking”
⚠️ Aviso importante sobre #ChatGPT
Su mecánica no está pensada para extraer conocimiento válido ni afirmaciones ciertas.
Estas pueden darse, pero no tienen por qué darse. GPT es un modelo de lenguaje autorregresivo que no entiende ni lo que lee ni lo que arroja. No es inteligente, es estadístico.
Su funcionamiento se basa en que predice muy bien qué palabra o término poner a continuación de otra palabra para simular la redacción humana.
GPT es como tener dados trucados para que salga la palabra que escribiría un humano.
Significa que no se puede usar para aprender o predecir. Sus frases son correctas en forma, no en fondo.
RT by @pictoline: ¿Luchar contra los discursos de odio es igual a limitar la libertad de expresión? 🤔
Una breve respuesta a la inquietud de muchos/as:
We are looking for beta-testers to try out the new @penpot Flex Layout feature.
In this post you can find details on how to participate (TL;DR: send us an email): https://community.penpot.app/t/our-upcoming-penpot-flex-layout-feature-needs-you/2069
Please share with anyone you feel can be interested 🙏
One of the most requested features is almost ready! But in order to make it even more special, we need your help! The Flex Layout allows you to automatically adapt your designs. Resize, fit, and fill content and containers without the need to do it manually. So, we are looking for volunteers to be part of the beta test of our new Flex Layout feature (aka. Auto Layout or Smart Layout). Penpot’s Layout Flex follows web standards (CSS), making it easier than ever to make it trivial to get the code...