Antwort #8 am: 17. November 2010, 19:31:39
Wenn du das aus deiner robots.txt Datei entfernst, dann indexiert Google sämtliche Links mit dieser einmaligen XTCsid.
Sorry, nein. Der Bot bekommt bei jedem Aufruf der Startseite eine neue XTCsid.
Es werden also endlos "neue" Seiten gefunden, die am Ende dann den DC produzieren.
@ALL
Gibt es die Funktion "Session-IDs für Bots vermeiden" eigentlich nicht in modified?
OSC hatte die noch...
Wenn nein dann sollte man generell auf Sessions in der Url verzichten und den User zu Cookies zwingen, sprich Admin => Erweiterte Konfiguration => Cookie Benutzung bevorzugen => True.
Es gibt zwar Bot's, die Session-ID's automatisch filtern nur Google ist AFAIK noch nicht so weit.
Wenn die Tante also die Urls nicht aus einer sitemap.xml bekommt findet sie die beim crawlen mit /*XTCsid auch nicht.
Gruß
Kristian