Doppelter Content durch SSL

Mir wird derzeit von Crawlern doppelter Content durch SSL angezeigt. Sprich die gleiche Seite einmal mit http und mit https. Wie habt ihr das Problem gelöst?

Canonical-Tag hilft. Oder einfach alles auf https umstellen.

Wenn man alles auf https umstellt, verliert man Linkjuice von den eingehenden Links. Canonical-Tag wird leider bei den CMS Seiten nicht eingefügt.

[QUOTE=etoys;158012]Wenn man alles auf https umstellt, verliert man Linkjuice von den eingehenden Links.[/QUOTE]

Dafür haben schlaue Leute den Statuscode 301 erfunden.

Ich würde auch mal behaupten, das Google den Zusammenhang wohl kennt und nicht als DC einstuft.

Naja, aber für eine Seite muss Google sich trotzdem entscheiden, wenn es um die Anzeige in den SERPs geht. Da ist es egal, ob Google den Zusammenhang erkennen kann oder nicht.

Um welche Seiten handelt es sich denn? Um CMS-Seiten ohne Formulare mit persönlichen Daten?
Solche Seiten sollten immer unter http aufgerufen werden - auch zB von der login-Seite.
Vermute mal diese Seiten sind relativ verlinkt?

[QUOTE=msslovi0;158016]Naja, aber für eine Seite muss Google sich trotzdem entscheiden, wenn es um die Anzeige in den SERPs geht. Da ist es egal, ob Google den Zusammenhang erkennen kann oder nicht.[/QUOTE]
Ja und wo ist das Problem? :rolleyes:

Das Problem nennt sich interner DC. Und den sollte man genauso vermeiden wie externen.

Die URL ist die gleiche, nur das Übertragungs-Protokoll ändert sich. Mehr nicht.
Das so etwas als interner DC gewertet wird, halte ich für SEO-Voodoo.

Warum sollte es nicht? Technisch ist es möglich, unter http://example.org/meine-tolle-url/ etwas völlig anderes anzuzeigen wie unter https://example.org/meine-tolle-url/. Ich würde mal davon ausgehen, dass Google das auch berücksichtigt.

[QUOTE=ChristophH;158026]Die URL ist die gleiche, nur das Übertragungs-Protokoll ändert sich. Mehr nicht.
Das so etwas als interner DC gewertet wird, halte ich für SEO-Voodoo.[/QUOTE]

Scheint aber so zu sein. Das Netz ist voll mit dieser Thematik. Ist das selbe Thema wie doppelter Content durch Seitenaufruf einmal mit www. und ohne.

[QUOTE=patchwork.de;158017]Um welche Seiten handelt es sich denn? Um CMS-Seiten ohne Formulare mit persönlichen Daten?
Solche Seiten sollten immer unter http aufgerufen werden - auch zB von der login-Seite.
Vermute mal diese Seiten sind relativ verlinkt?[/QUOTE]

Es werden mir ausschließlich Seiten aus dem CMS-Bereich angemahnt. Da fehlt halt schlicht und ergreifend der Canonical Tag. Das sind dann leider auch noch Seiten mit eigentlich hoher Bewertung, da viel Text.

sinnvoller als mit einem Canonical Tag ist es die https-Seiten so zu kennzeichnen:

<meta name=“robots” content=“noindex”>

Und wie soll das in der Praxis gehen? Ich will ja unbedingt, dass die “normale” Version indiziert wird.

@ Patchwork.de

Off Topic: Wie hast du das mit dem “Versand und Kosten”-Reiter auf deinen Detailseiten hinbekommen?

[QUOTE=etoys;158036]Scheint aber so zu sein. Das Netz ist voll mit dieser Thematik. Ist das selbe Thema wie doppelter Content durch Seitenaufruf einmal mit www. und ohne.[/QUOTE]
Hast du mal nen link? Einen der auch genau das hier genannte problem beschreibt?


Ich lasse meine Seite derzeit von onpagedoc.com crawlen. Das System dort moniert jede CMS Seite und zeigt mir den doppelten Content durch https an.

Wenn der Shop normalerweise unter http läuft kann man ja dem robot sagen, dass er alle https-Seiten nicht indizieren soll. In der base.tpl aufnehmen:

[{ if $oViewConf-&gt;isSsl()}]
    &lt;meta name="ROBOTS" content="NOINDEX"&gt;
[{/if }]

Das klingt so einfach wie gut. Probiere ich mal aus. Danke!