Warnung von search.google.com wegen Robots.txt

Hallo, in search.google.com bekommt dieses zwei warnungen,

Wenn druckt der link zeigt,

search.google.com sagt dass die probleme in robots.txt legt,

Wie das Bild zeigt, das probleme bekommt weil ich in meinen robots.txt , Disallow: /*?cur= habe…, um dieses probleme zu lösen, sollte ich *?cur=** erlaube ?

Hallo Joseba :slight_smile:

alle URLs mit *?cur=x werden ausgeschlossen sein um Duplicate Content zu vermeiden Duplicate Content - SISTRIX

Der Hintergrund ist, dass der Seiteninhalt sich wahrscheinlich nur in der Währung unterscheiden wird und der restliche Inhalt gleich ist.

Viele Grüße,
Tim

Viel danke für deinen antwort!

jetzt ich weiß die bedeutung von cur=x, aber was kann ich mache um nicht weiter die warnung von search.google.com zu bekommen ?

Gerne.

Ich würde die robots.txt nicht ändern.

In den ehemaligen Webmaster Tools von Google (jetzt Google Search Console) gab es die Option bestimmte URL Parameter zu unterbinden beim Crawling dazu existieren auch noch Anleitungen z.B. Frühjahrsputz: URL-Parameter-Tool  |  Blog von Google Search Central  |  Google for Developers

Ich habe in support.google nach diesem probleme gesucht, einem person der Ähnliche probleme hat, haben gesagt zu machen, was du mir empfiehlt nicht machen…

nimm die Sperren in der robots.txt raus damit Google das noindex sehen kann.

Hast Du den bereits probiert die Seite aus dem Index löschen zu lassen?

Wenn Du die robots.txt änderst besteht die Gefahr, dass Dir weitere Seiten Seiten als Fehler angezeigt werden.

Hast Du den bereits probiert die Seite aus dem Index löschen zu lassen?

nein, um das zu machen, soll ich in Stammdaten > Grundeinstellungen > SEO ?

Wenn Du die robots.txt änderst besteht die Gefahr, dass Dir weitere Seiten Seiten als Fehler angezeigt werden.

Als du über dieses Sachen auskennst, ich möchte die robots.txt nichts verändert…

Du kannst einzelne Unterseiten über Google Search Console für Löschung aus Google Index beantragen unter https://search.google.com/search-console/removals

Dazu musst Du oben im Suchfeld die exate Unterseite mit ?cur=3 am Ende eingeben und dann einen Antrag auf Entfernung stellen.

Damit verbunden wäre die Hoffnung, dass Dir der Fehler zukünftig unter Google Search Console nicht mehr angezeigt wird.

1 Like

Danke, ich habe gemacht wie du sagst…ich kenne dieser button, ich benutze um alter seite zu lösen…, aber ich denke das probleme bekomme weil auf SEO etwas falsch geschrieben habe…

Das Bild zeigt wo ungefähr das probleme steht,

Dein Kern-Problem dann das Währungen Dropdown

Du könntest den Links für die weiteren Währungen mit dem Attribut no-follow belegen

<a class="dropdown-link" href="...?cur=3" title="USD" rel="nofollow">USD</a>

Weitere Infos unter Ausgehende Links für Google eingrenzen  |  Search Central und Was ist ein nofollow-Link? Alles was du wissen musst (ohne Fachjargon!)

Danke, du meinst der Datei currencies.tpl in tpl/widget/header, in der Zeile 15, verändert,

von

 <a class="dropdown-link" href="[{$_cur->link|oxaddparams:$oView->getDynUrlParams()}]" title="[{$_cur->name}]"><span>[{$_cur->name}]</span></a>

nach

<a class="dropdown-link" href="...?cur=3" title="USD" rel="nofollow">USD</a>

fast ein bisschen mitdenken

<a class="dropdown-link" href="[{$_cur->link|oxaddparams:$oView->getDynUrlParams()}]" title="[{$_cur->name}]" rel="nofollow"><span>[{$_cur->name}]</span></a>
1 Like

so, die zeile 15 bleibt gleich, nur der Tag rel="nofollow" hinzufügen…

ja genau das Attribute rel="nofollow" hinzufügen

Danke für deinen bemüht !

ich wünsche dir eine gute Wochen!

1 Like

This topic was automatically closed 365 days after the last reply. New replies are no longer allowed.