Ich verstehe #Google nicht... Schieben die mir die Schuld zu, dass eine Seite durch robots.txt blockiert ist und die es trotzdem indexiert haben?

Wenn man in den Docs einmal nachschaut, muss man für die Warnung auch etwas scrollen.

Deren Vorschlag: pack doch noindex als meta-tag in die Seite.

Spoiler: genau dieser tag befindet sich dort bereits...

Anstatt sich einfach an Konventionen zu halten und die Seite einfach direkt zu vergessen...

Es wird einen Grund haben, warum ich einzelne Seiten nicht direkt im Internet haben möchte, sondern nur durch Verlinkungen...

#GoogleSearchConsole #robotstxt #FuckBigTech

Naja, wenigstens werden keine Informationen angezeigt. Aber grundsätzlich ist die Subdomain dort mit hinterlegt und kann durch gezielte Suche gefunden werden.

Anstatt die Ergebnisse einfach wegzulassen, da a) durch robots.txt und b) durch noindex ausgeschlossen!

@AlbertUnruh Einfach Googlebot komplett blockieren und nur akzeptable Suchmaschinen zulassen, vertrau