@sebsauvage
## 2. J'ai fais un Honeypot Article "PAF" (Anti-Scraping)
Destiné aux crawlers sophistiqués et aux bots utilisant des proxies résidentiels qui contournent les blocages par User-Agent.
En gros, L'Appât est l'article.
il est invisible pour les humains (caché dans le footer), mais prioritaire dans le `sitemap.xml` pour attirer les bots.
C'est du Texte sémantique technique crédible pour paraître "précieux" aux yeux d'un scraper.
À l'intérieur de l'article, un lien d'appel à l'action pointe vers `/api/trap-trigger.php`.
Le script `trap-trigger.php` exécute la logique suivante :
Il vérifie si le User-Agent appartient à un bot légitime (Google, Bing, OAI-SearchBot).
Si un bot prétend être Googlebot, le script vérifie via `gethostbyaddr` que l'IP appartient bien au domaine `googlebot.com` ou `google.com`.
Bannissement & Rotation (Sliding Window)** :
- L'IP est enregistrée dans `.trap_log`.
- L'IP est injectée dans le `.htaccess`.
Pour éviter de ralentir le serveur, le système ne conserve que les **500 dernières IPs** bannies. Les plus anciennes sont automatiquement supprimées du `.htaccess` par rotation.