Hallo Alfred,
danke fürs Drüberschauen.
Hab die Robots.txt wieder geändert und warte nun mal ab.
Dann hab ich mit meinem Laienverständnis versucht deine weiteren Aussagen zu begreifen.
Canonical könnt ich niemand erklären, ist wohl eine clever Kennzeichnungsroutine um doublecontent zu vermeiden.
Hab eben mal googlewebmaster gecheckt.
Es sind einige double content (57 doppelte metagdescr/49 doppelte title tags), wie z.B.
Exclusive LED-Lampen in Premium-Qualität von Markenherstellern. Für anspruchsvolle Anwendungen.
/:::67.html
/Premium-Qualitaet:::67:2.html
/Premium-Qualitaet:::67:3.html
/Premium-Qualituet:::67.html
Wie verhindere ich hier diese Fehlermeldung ?
Hier noch der volle Link von dieser Beispielseite:
http://www.ledclusive.de/Premium-Qualituet:::67.htmlMein SEOQuake sagt mir 2140, wird also wohl schon weniger.
Was ist denn robots.txt noch überflüssig drin? Hab die chinesische Suchmaschine ausgesperrt.
Und hier weiss ich gar nicht, was zu tun ist:
Dein Zitat: "Was nicht in den Index soll muß beim Aufruf ein noindex im Robots-Meta-Tag haben."
Wo setze ich das "noindex". Ich hab eine Einstellung im Shop gefunden unter "erweiterte Einstell. - Meta-Tags/Suma" Nennt sicht robots. Dort steht index,follow.
Aber wenn ich das auf noindex setze wird doch nichts mehr indiziert.
Stellvorlage für böse Buben -?? meinst, weil dann die URL-Struktur zu erkennen ist ?
Würde mich freuen, wenn du mir da noch etwas LED-Licht ins Dunkel bringen könntest.
vielen Dank,
Tom