[QUOTE=csimon;42539]Ihr müsst halt schon auch noch die Semantik eurer Seiten verbessern, optimal ist nämlich das Standardtemplate von OXID nicht ;)[/QUOTE]
Hallo csimon,
ich hoffe du kennst den Spruch: “Wer gackert muss auch legen!”
Muss mir heute abend mal meine meta-tags und robots unter die Lupe nehmen. Wobei eigentlich bei mir beides sehr nahe am Standart sein sollte.
Zunächst hatte ich den Eindruck, dass Google keine Seiten mag, bei denen keine Langbeschreibung gepflegt ist. Aber ich habe inzwischen auch definitiv mehr als 550 von meinen 2500+ Artikeln ordentlich gepflegt.
Als Nicht-Programmierer weiß ich nun leider auch nicht, wie man die Semantik verbessern soll. Ist das einfach (wenige Stunden-Aufwand) möglich, wenn man einen Spezialisten dranläßt?
Die Kritik am Oxid, dass extrem viel (unnötiger) HTML-Code vor dem eigentlich relevanten Inhalten kommt habe ich schon öfters gehört. Das scheint auch noch ein “Hinderungsgrund” zu sein, warum er nicht öfters eingesetzt wird.
[B]Meint Ihr das könnte man für das neue 4.5 Template noch in die Entwicklung einfließen lassen ? Ein Bug ist es ja (leider) technisch gesehen nicht und ob ein Feature Request noch rechtzeitig kommt wage ich zu bezweifeln.[/B] Ideen?
Ich hatte hier was längeres geschrieben, aber leider den tab zugemacht. Soviel: Du musst für die Verbesserung der Seitenstruktur nur HTML beherrschen und soviel Smarty nichts kaputt zu machen. Dann musst du Googles Leitsatz “Machen Sie Seiten für Menschen, nicht für Suchmaschinen” beherzigen, konkret heisst das: Strukturiere (keine Optik) deine Detailseite zb so, als wäre es ein Datenblatt für einen Kunden, gliedere Absätze und Überschriften so, wie dus für verständlich hälst. Dann hast du schon die halbe miete, aber keine Seite mehr im Index.
Du musst sehen das du deine Seite erreichbar machst, guck dafür nach ob der googlebot überall hin kommt. Google empfiehlt hier den Textbrowser Lynx. Wenn du über Lynx irgendwo nicht hinkommst, heissts aufgepasst: denn da kommt dann auch der googlebot nicht hin. solche sachen sollte man dann irgendwie zugänglicher machen, nicht unbedingt nur über eine sitemap.xml.
By the way, uns geht es genauso.
Die Anzahl der Seiten im Index (nach dem jetzt endlich nahezu 100% der PE-3-URLs aus dem Index raus sind) passen nicht zur Anzahl der URLs in der sitemap.xml.
Ich meine irgendwo gelesen zu haben, dass das Aktuell auch andere Webseiten betrifft.
Nichts desto trotz sind auch wir nach vor mit den Suchergebnissen bei Google überhaupt nicht zufrieden, das war mit der PE 3 besser.
Wäre mal Interessant, von jemandem, der Zufrieden mit den Suchergebnissen seiner PE 4 ist, ein Beispiel des Suchergebnisses zu sehen.
jetzt sehe gerade, auch ganz schlecht. mit osc hatte ich ca. 2000 seiten im index jetzt sind es nur 580 seiten. EE ist davon nicht betroffen…
gruß Markus
Hallo,
ungewollt auf jeden fall nicht. Es sind ca. 1800 Produkte im Shop, sitemap.xml (google sagt Übermittelte URLs 1780, 364 URLs im Web-Index). Xenu sagt alles OK.
gruß
Hi,
seit version 4.4.4 habe ich wieder ca. 1000 seiten im index. haben die da etwas korrigiert?
letzte Woche waren nur 380 seiten zu finden. bin ich aber froh…
In den Changelogs zur 4.4.4 kann ich nichts finden was meiner Meinung nach in Verbindung mit Google sein könnte. Auch die Cross-link Problematik ist doch für eine “normale” Installation nicht relevant?
Naja, da ich nun mit meiner in den letzten Wochen unveränderten 4.3.2 mit site: auch 200 Seiten mehr angezeigt bekommt könnte es auch an Google oder anderen Änderungen/Shoppflege liegen und nicht an der 4.4.4
Wann hattest du denn geupdatet und von welcher Version?
Ich sehe keine Verbindung zu OXID, es wurde in der 4.4.4 nichts korrigiert und ich habe von meinem alten ZenCart (OSC-Fork) und meiner WordPress-Seite geredet. Es scheint - wie aller paar Wochen bei Google üblich - eine Veränderung der Routinen gegeben zu haben. Also einfach nur Abwarten und Tee trinken. Eine andere Chance haben wir nicht.
nur leider ist es aus meiner Sicht nicht ganz so simpel.
[U]Verhältnis eingereichte Sitemap / URLs im Web-Index[/U]
Hier kann ich dir noch zustimmen, dass es hier zu weniger Sites der Sitemap im Index kommen kann, als man eingereicht hat. Das kann normal sein. z.B. wenn man (wie ich immer noch) eine Sitemap hat, die den ersten Kategorieeintrag eines Artikels nimmt. Dann folgt google dem Link, bekommt gesagt wie es richtig heißt (canonical tag). Wenn google die Canonical Seite aufnimmt, aber nicht den Link der in der Sitemap steht wäre das ok. Dann wäre die Differenz nachvollziehbar.
[U]Verhältnis eingereitchte Sitemap oder Anzahl Artikel im Shop zu Indexierten Seiten mit site:[/U]
Hiermit habe ich größere Probleme nichts zu machen um nur mein Gewissen zu beruhigen und es es auf Google schieben. Bei dem geschilderten Fall hast du 3 mal mehr Seiten über site: angezeigt bekommen, als du mal an sitemap eingereicht hattest. Bei mir und neo123 sind es aber wohl nur 1/3 bis 1/4 der kaufbaren Artikel im Google Index. Es sollten doch teoretisch mindestens soviele Seiten im Google index sein, wie man Artikel und Kategorien hat. Hier liegt doch meines Erachtens das Problem.
Das Google ständig etwas ändert ist klar und bekannt. Nur bei einer Website, die schon über 1 Jahr (und bei anderen noch länger) am laufen ist können es eigentlich keine kurzfristigen Google Änderungen sein.
Die Frage ist ja wo liegt die Ursache für die wenigen Seiten über site ? Im Moment ist es für mich noch ein Rätselraten.
bitte beachtet, den unterschied zwischen primären und sekundärem google index.
kleiner einwurf am rande … mit “site” wird auch der sekundäre index angezeigt, der wiederum in den webmastertools nicht angezeigt (daher die unterschiede).
zusätzlich kommt dazu, dass google durch caffeine diverse regelmäßige änderungen um index vornimmt.