Indexiert, obwohl durch robots.txt-Datei blockiert


#1

Hallo, die Meldung im Titel erscheint in der Google Search Console unter Indexabdeckung. Dabei handelt es sich um Shop-url/Warenkorb/, Shop-url/Passwort-vergessen/, Shop-url/Mein-Merkzettel/, Shop-url/Mein-Konto/.

In der robots.txt werden sie blockiert. Wenn ich mir z.B. mit info:Shop-url/Warenkorb die Seite aufrufe, erscheint sie auch bei Google, mit dem Hinweis, keine Informationen verfügbar.

Hat jemand eine Idee zur Lösung des Problems? Ich nutze die CE 4.10.5 mit Flow.
Vorab vielen Dank


#2

Prüf das mal über das robots.txt Tool in den Google Webmaster Tools, was sagen die?


#3

Hallo tabsl, hatte ich schon gemacht. 0 fehler, 0 warnmeldungen.

Gestern habe ich in der robots.txt den Eintrag für die sitemap von unten nach oben an die erste Stelle geschoben. Heute bekomme ich keine Meldungen von google. Kann das daran gelegen haben?


#4

Zusatz: Die neue robots.txt hat goolge bereits heute Nacht gesehen. ich bekomme nur einen Crawling-fehler, der ist auch in ordnung.


#5

Ich denke nicht, aber nun passt ja alles. :wink:


#6

Ich werde das mal beobachten. erst mal vielen dank.


#7

Hallo zusammen, hänge mal ein Bild dran:

So sieht die search console die robots.txt

Jemand eine Idee, woran das liegt?


#8

Hast du explizit mal die URL über GWT gelöscht?


#9

Guten Morgen, ich habe jetzt mal alle url´s ausgeblendet, nur gilt das ja für 90 tage,danach sind sie ja wieder da.
Also keine Dauerlösung.
Löschen kann ich sie nicht, da sie bei mir physisch nicht existieren.


#10

URL in den GWT einfach zum löschen anmelden …


#11

So wie ich das sehe, kann man in der search console nur seiten vorrübergehend ausblenden,nicht löschen.
Selbst wenn das ginge, ist das problem bei der nächsten einreichung einer sitemap zum indexieren wieder vorhanden. Ich muss die Ursache finden.