Hallo,
ich habe jetzt noch ein Problem - und hoffe das ich unter “ALLGEMEIN” richtig bin.
Google will meine Seiten nicht korrekt aktualisieren.
D. h. einige übernimmt es aber nicht alle. Jetzt ist nur ein Bruchteil meiner Artikel überhaupt bei Google dabei …
Auch über Sitemap wird nicht die ganze Sitemap übernommen.
Folgende Meldung von google kann ich erkennen:
Crawling - Fehler:
Durch robots.txt gesperrt (24)
Nicht gefunden (54)
Wenn ich auf die übermittelte Google-Sitemap [I](manuell erstellte Sitemap im txt - Format, Produkt-URLS Zeile für Zeile aus Shop übernommen, erstellt mit Notepad ++, UTF-8 kodiert, URLs setzten sich zusammen aus der Haupt-Kategorie und der Unterkategorie sowie extra URL für alle Varianten)[/I] gehe kommt folgendes:
Format : LISTE
Übermittelte URLS : 674, 161 URLS im Web-Index
Es wurden keine Fehler oder Warnmeldungen zurückgegeben.
Was habe ich da falsch gemacht?
Wer kennt sich hier aus?
Meine URL: www.schermesser-schleifen.de
Über jeden Rat wäre ich sehr dankbar - ALSO schon mal im voraus - BESTEN DANK!!
Ggf. liegt es an den korrekten canonial Tags.
Angenommen du hast in deinem File einen Link drin bei dem Google über den Canonial Tag sieht: Ist zwar nett das ich den Link bekomme aber eigentlich heißt dieser Link anders. (Also der Link aus dem Textfile ist falsch, es gibt einen korrekten Canonial Link) Dann nimmt google die korrekte Seite in den Index auf und sagt dir, diesen Link, den du mir falsch angegeben hast nehme ich aber nicht auf. Also hast du google ein Link gegeben, den Google so nicht exakt aufnimmt.
Wie kommst du denn auf 674 Links bei ca. 300 Artikeln? DC mag Google auch nicht.
CYA
Hallo,
sieht doch garnicht schlecht aus:
site:www.schermesser-schleifen.de zeigt 294 Treffer im Index.
Suchbegriffe “schermesser” mit “schleifen / Tiere etc” bringt jeweils den ersten Treffer!
Google braucht sehr lange um eine gelesene Sitemap zu indizieren. In den Webmaster-Foren ist das eine ewige Diskussion ohne richtiges Ergebnis (von Tagen bis zu Wochen wird alles angeboten).
Jedenfalls nimmt Google nicht die Sitemap und schreibt alles in den Index; vielmehr wird die Sitemap als Anregung für das weitere Crawlen genommen.
Es braucht also Geduld und vor allem andere Links zu Deiner Seite!
Grüsse
Gregor
Vielen DANK!
Habe jetzt nochmals meine Sitemap verändert und muss wahrscheinlich wirklich mal “Abwarten” können
die DC habe ich strikt versucht zu vermeiden!
IHR SEID SPITZE ! ! !
So zum Thema - ich übermittel z.Zt in der Sitemap ca. 1000 Links, Shop besteht seit Dez. 2008 und Google hat 500 Seiten indiziert.
Klar nimmt der sehr viel an, aber was er tasächlich frisst ist wieder ne andere Sache. Aber Änderung meiner Sitemap nimmt er relativ schnell an.
Und die Google relevanten Keywords hat der an sich relativ zügig genommen, das Ranking braucht ja auch seine Zeit. Das darf man nicht vergessen
Hallo - DU hast ca. 1000 Links - seit 12/2008 Shop online und google hat immer noch nicht alle Seiten - bzw. erst die Hälfte??
Puh, na Du machst mir Hoffnung …
An was kann den sowas liegen, mir kommt es natürlich so vor, als wenn bei der Konkurrenz alles in Google steht …
Haben die da ein Geheim-Rezept?
Bei meinem letzten Shop - mit Shop-to-Date 5.0 war ich zwar mit dem Programm total unzufrieden, aber als ich meinen Shop einstellte waren alle Artikel in Google vertreten - die Seitenplätze waren grottenschlecht, da ist natürlich Oxid viel besser! Aber gar nicht in Google …
Hat noch irgendjemand für mich und für andere ein Rezept?? ERFOLGSREZEPT?
Ich habe mittlerweile sogar schon unter Google addURL jede einzelne URL, die ich auch in meiner Sitemap habe nochmals manuell dazugefügt - auch ohne Erfolg … Mein Latein ist am Ende …
Da muss man einfach mehr Geduld haben. Es kann Monate dauern, bis Änderungen von Google umgesetzt werden. Speziell nach dem Wechsel des Shopsystems auf deine URL ist ja einiges verändert worden.
Die Anzahl der indizierten Seiten wird sich sicher noch mehrmals stark verändern.