Unterkategorien sperren SEO Robots.txt

Guten Tag Community,

Ich habe eine Verständnis Frage:

wenn alle Produkt ab der 2. Kategorie Ebene bishin zur letzten (3.und 4. ebene)
plaziert sind, also, wenn alle Produkt mehrere Kategorien besetzen (aber alle
auf der 2. ebene vorhanden sind)

Ist es dann besser, wenn man gleich die unterkategorien über die robots.txt
blockiert, und nur die oberste Ebene zulässt, wo sowieso schon alle produkte
auffindbar sind?

Oder sollte man alle zulassen, wenauch doppelte adressen zwangsläufig
sich ergeben.

also einmal

http://www.domain.de/1.uk/produkt.html
http://www.domain.de/1.uk/2.uk/produkt.html (sperren / nicht sperren?)
http://www.domain.de/1.uk/2.uk/3.uk/produkt.html (sperren / nicht sperren?)

Grüße

Die Artikel erhalten eine canonical URL wenn sie in mehreren Kategorien vorhanden sind, damit wird DC vermieden.

Die nächste frage, die sich stellt, ist:

Wenn alle URL’s in der Sitemap sind, welche URL wird dann indexiert?

die

www.domain.de/1.uk/produkt.html
oder die
www.domain.de/1.uk/2.uk/produkt.html

grüße

die, die dem Artikel als Hauptkategorie zugewiesen ist (das ist dann auch die canonical)

sehe gerade, das oxid immer die oberste kategorie nimmt und sie als canonical setzt.

gehe ich richtig der Annahme, das googel nur die canonical URL’s indexiert?
das währe dann ja der logische Schritt.

grüß

ah, hast die Antwort ja schon gegeben - danke für das schnelle feedback