Doppelter Content durch SSL

[QUOTE=etoys;158042]http://www.web-netz.de/blog/duplicate-content-vermeiden-tipps-fuer-online-shops/
http://www.trustagents.de/blog/https-und-seo
Ich lasse meine Seite derzeit von onpagedoc.com crawlen. Das System dort moniert jede CMS Seite und zeigt mir den doppelten Content durch https an.[/QUOTE]
Nunja, beide Beiträge sind nicht gerade überzeugend.
Dann sind Webseiten die HTTP 1.1 und HTTP 2.0 anbieten bestimmt gleiche 4fach betroffen. Aber gut lassen wir das…

[QUOTE=ChristophH;158052]Dann sind Webseiten die HTTP 1.1 und HTTP 2.0 anbieten bestimmt gleiche 4fach betroffen. Aber gut lassen wir das…[/QUOTE]

Natürlich nicht, da HTTP/2 (oder auch SPDY) für den User transparent zwischen Browser und Server ausgehandelt wird und sich an der URL, hier speziell am scheme-Teil, nichts ändert. Aber ich habe schon verstanden. Du willst es nicht verstehen.

[QUOTE=msslovi0;158057]Natürlich nicht, da HTTP/2 (oder auch SPDY) für den User transparent zwischen Browser und Server ausgehandelt wird und sich an der URL, hier speziell am scheme-Teil, nichts ändert. Aber ich habe schon verstanden. Du willst es nicht verstehen.[/QUOTE]
Ok, ich hätte doch das Ironie-Zeichen setzen müssen. Aber schön das du darauf angespungen bist.

[QUOTE=ChristophH;158063]Aber schön das du darauf angespungen bist.[/QUOTE]

Muss ich ja. Am Ende kommt hier in nem halben Jahr jemand vorbei, liest, was du geschrieben hast und glaubt das am Ende auch noch.

Mir fällt in dem Zusammenhang auf, dass der Shop den robots Tag unabhängig von ssl nicht setzt.

<meta name=“robots” content=“INDEX,FOLLOW”> fehlt.

Ich dachte das wäre Standard. Wie kriege ich den im Zusammenhang mit der SSL Ausfilterung rein?

Man muss keinen Robots-Metatag setzen, die Bots verhalten sich dann automatisch so wie du schreibst.
Du kannst das aber natürlich tun:

[{ if $oViewConf->isSsl()}]
<meta name="robots" content="noindex, follow">
[{else}]
<meta name="robots" content="index, follow">
[{/if }]

Ich hab mal im SSL um ein follow ergänzt, weil Links sollen ja gefolgt werden.

Es gibt ja auch Nicht-SSL-Seiten, die NICHT indiziert werden sollen!
Die base.tpl dann so ändern (rot markiert):


[{if $oView->noIndex() == 1 }]
<meta name=“ROBOTS” content=“NOINDEX, NOFOLLOW”>
[{elseif $oView->noIndex() == 2 }]
<meta name=“ROBOTS” content=“NOINDEX, FOLLOW”>
[{elseif $oViewConf->isSsl() }]
<meta name=“robots” content=“noindex, follow”>
[{else}]
<meta name=“robots” content=“index, follow”>
[{/if}]

Wieso machst Du nicht einfach über htaccess ne Weiterleitung von http auf https ? Ich hatte damals bei der Umstellung von http komplett auf https überhaupt keine Schwierigkeiten damit.

@coarsy:
pagespeed meldet 0,86 sec für mobile und 1,1 sec für die desktop-Version bei deinem Shop! Kommen diese langen Antwortzeiten evtl. wegen https?

Der Einsatz von https fällt bei PageSpeed eher nicht ins Gewicht. Die hohen Antwortzeiten sind sehr wahrscheinlich in schlechten Renderingzeiten zu suchen.

Genau, es liegt an den schlechten Renderingzeiten. PHP 5.3 ist aktuell noch im Einsatz. In Verbindung mit einer höheren PHP Version + Varnish oder anderen Reverse Proxy fällt die natürlich wesentlich besser aus. Liegt aber bestimmt auch noch an der etwas älteren Shopversion.