Nouvel effet secondaire pervers du pillage massif du web par les entreprises d'IA (oui parce que je pense que vous n'étiez pas assez en colère déjà). Une de mes collègues en charge du dépôt légal du web à la #BnF nous signale que, face à cette menace, les sites se barricadent de plus en plus. Résultat : les robots de la BnF se retrouvent le bec dans l'eau. Les collectes sont massivement en échec.
1/2
@BertrandCaron
Vous n'y pouvez rien, mais en tant que développeur et hébergeur de sites webs, je peux vous dire que les scrappers sont un vrai problème. Mes sites publics se tapent du 90% de trafic de scrappers, et dès qu'on bloque, les serveurs respirent nettement mieux. Un petit rappel : nous faisons des sites pour que des humains les lisent, et surdimensionner l'hébergement et la consommation énergétique et matérielle correspondante pour accomoder des robots, ça me gonfle. Grave.
@sossalemaire J'imagine. Mais la BnF n'abuse pas : un passage par an, un nombre limité de rebonds (donc même pas la totalité du site en profondeur) - sauf si vous avez l'honneur d'avoir été sélectionné par un·e bibliothécaire, auquel cas la fréquence et la profondeur peuvent être plus importants.