#IA #bots #protection
J'ai presque honte de publier un truc aussi trivial :
Une solution simple (stupide) mais efficace pour bloquer les bots.
https://sebsauvage.net/wiki/doku.php?id=stupidantibot

(Je vous assure, c'est choquant de voir la quantité de saloperies que ça bloque.)

@sebsauvage tu as bien fait les mise en cache de tes pages aussi ? Un wiki ça doit pas beaucoup bouger, tu doit pouvoir mettre en cache les page demander pendant très longtemps, et soulager le backend de toutes ces requêtes. (Pour la partie accessible au public en tout cas)
@ztec
oui oui le cache de DokuWiki fonctionne très bien.
@sebsauvage mais il est côté wiki du coup ? Je parlais du cache "CDN" plus côté serveur web. Le cache docuwiki passe par du traitement php pour chaque requêtes même si elle est en cache non ? (Certe moins coûteux mais malgré tout présent)
@ztec
Ah je n'utilise pas de CDN ou de reverse-proxy qui fasse cache.
Je protège carrément tout ce qui est en dessous de /wiki
@sebsauvage un reverse proxy, même local, pourrais faire ce rôle de protection sur absolument tout. La seul condition est d'avoir de bon header cache défini. Et su coup tout ce qui est froid (qui change peu) te coûterais presque que la bande passante et un peu de stockage.
@ztec
Oui j'imagine bien, mais je n'ai pas vraiment la main système sur mon serveur.
@sebsauvage ah en effet. Compliqué dans ce cas.