Heute fiel mir auf, dass die robots.txt dieser Seite irgendwelchen „Kauderwelsch“ enthielt, der da nicht hingehörte und den Google offenbar veranlasste, den Content meines blogs nicht zu erfassen / zu „crawlen“.

Nach etwas Suchaktivität bin ich dann endlich in diesem Beitrag fündig geworden.

Wer also ein ähnliches Problem hat bzw. wer wissen möchte, wie der Inhalt einer robots.txt auszusehen hat oder was man tun muss damit bestimmte Bereiche nicht erfasst werden …und und und, dem kann ich o.g. Seite empfehlen.