Le saviez-vous ? Actuellement toutes les grandes plateformes qui proposent des textes en accès ouvert sont gravement compromises par du spam très agressif.
Gallica, OpenEdition, EMAN etc.
C'est une catastrophe silencieuse.
Et évidemment ces infrastructures ne sont pas faites pour supporter des centaines de requêtes/seconde.
Et évidemment ça ne va pas s'arranger.

Edit grâce à @quota_atypique
1) le dernier rapport de l'Arcep https://www.arcep.fr/uploads/tx_gspublication/rapport-IA-generative-defis-internet-ouvert-janvier2026.pdf
2) le rapport du GLAM
https://www.glamelab.org/products/are-ai-bots-knocking-cultural-heritage-offline/

@juliegiovacchini beaucoup de sites déploient anubis pour contrer ça, j'imagine que ça doit être un peu efficace.

mais oui avoir un site public avec du contenu semble de plus en plus compliqué à assumer.

@tshirtman anubis est utilisé déjà par plusieurs infras publiques, ça ne suffit pas toujours et ça demande aussi du boulot de maintenance/déploiement etc. et de l'adaptation parce qu'en face les contournements se développent vite aussi.
ça ne va pas être tenable éternellement.
@juliegiovacchini abandonner http et passer à BitTorrent...
@tshirtman

@ffeth @juliegiovacchini le soucis justement, c’est que c’est les clients qui utilisent http n’importe comment même quand il y a de meilleurs sources.

Je connais quelqu’un qui a fait un frontend a reddit pour éviter le tracking, il est obligé de ban la moitié des IP de la planète pour pas se faire DDOS, alors que reddit a une api json pour tout ce qu’il expose.

C’est relou si Anubis suffit pas. Va falloir des challenges plus sérieux et donc moins accessibles.