#ludismo para el pueblo.
Sangre en la máquina, ludismos del futuro pasado con Proyecto UNA
Click Para descargar el archivo de audio
En este episodio de PAN invitamos a Proyecto UNA, quienes nos acompañan en este viaje sonoro en el que ponemos en contraste la historia del ludismo con las luchas actuales que se resisten a que la tecnología tenga que ser un mecanismo de opresión
Sige en El Salto Diario
En este episodio de PAN hacemos un crossover entre el libro Blood in the Machine de Brian Merchant y La viralidad del mal, de Proyecto UNA, quienes nos acompañan en este viaje sonoro en el que ponemos en contraste la historia del ludismo con las luchas actuales que se resisten a que la tecnología tenga que ser un mecanismo de opresión.
#bloodInTheMachine #brianMerchant #ludismo #SangreEnLaMáquina
Another blog entrance
No sé si alguna vez lo había comentado por aquí, pero en la actualidad me dedico a esa cosa llamada "Ciencia de Datos".
Estoy un poco jodido de moral últimamente, porque me siento rodeado por tanto LLM y tanta IA, y siento que me estoy quedando aislado tan sólo por no tragar con la burbuja imperante, por señalar que el emperador está desnudo.
De hecho, a pesar de estar muy a gusto con la gente con la que trabajo, los pensamientos sobre cambiar de curro han vuelto a mi cabeza (y ya van...), porque si esto es el futuro, me entran ganas de bajarme.
Editorial de Alejandro Bercovich en el programa Pasaron Cosas sobre Marcos Galperín como benefactor
En la parte final de su editorial Alejandro Bercovich se refiere a los luditas como simples rompedores de máquinas
Una pena, los luditas implementaron muchas estrategias para ser oídos! Cartas, Notas en los periódicos, otras luchas, sólo rompieron las máquinas al final! Y no eran tecnófobos estaban en contra de las máquinas que destruían la comunidalidad!
Falso documental sobre la historia de los luditas
Algo más sobre los luditas en este humilde blog
Pero, hay muchísimos problemas con las entregas de Mercado Libre
#alejandroBercovich #benefactor #ludismo #marcosGalperín #mercadoLibre #pasaronCosas
Me apunto para revisar Dark Visitors, una página web que enumera agentes de usuario relacionados con scrapers y bots que se dedican a robar contenido de páginas web para alimentar inteligencias artificiales. En la lista completa se muestran agentes como Bytespider, el de TikTok, o GPTBot, el agente principal usado por OpenAI.
A través de Hacker News también leo a Cory proponiendo bloquear este tipo de bots metiéndolos en el robots.txt. En algunas de mis webs ya tengo bloqueados algunos bots en el robots.txt, pero esta lista me servirá para ponerla al día. Sin embargo, me pregunto cuál de estas soluciones es realmente más efectiva.
Por un lado, podríamos poner este tipo de bots en el robots.txt y asumir que lo van a respetar. robots.txt es un sistema de honor. Realmente no hay nada que impida a un bot ignorar el robots.txt e igualmente hacer scrapping de la página web para extraer su contenido.
Pero a la vez, por el otro, optaría por una solución que asuma que el bot va a ser malévolo y va a ignorar una petición de no escaneo del sitio web. Para esas situaciones, se podría optar por banear la IP del sitio web a nivel firewall. Esta es una solución que tengo implementada en mi servidor, por ejemplo, para algunos productos de inteligencia artificial que sí enumeran las direcciones IP que usan para hacer el escaneo. OpenAI las enumera, por ejemplo.
Por último, otra opción que se me ocurre es tirar por la vía de la confusión. Detectar en el servidor web cuándo una petición procede de un user-agent asociado a un bot, y en vez de servir un HTTP 403 o de tirar abajo la conexión mediante el firewall, servir en su lugar otra página web diferente con el código HTTP 200, para que el bot lo interprete como una página correcta, pero servir información falsa para contaminar el dataset. Estoy pensando en una página en blanco que tenga un par de frases como «los cerdos vuelan y las vacas dan chocolate», pero podría proponer burradas más grandes que puedan hacer daño.