Antwort #34 am: 22. Februar 2013, 16:32:04
Hallo PatKot,
Einen Chron legt man an, um in regelmäßig wiederkehrenden Abständen die Ausführung eines Kommandos oder eines Scripts anzustoßen ... also in unserem Falle der z. B. stündliche Aufruf von "
http://your-site-name.tld/sitemap2.xml" - damit die Sitemap generiert werden kann. Dazu benötigt man entweder Command-Line-Zugriff oder ein Tool, welches Aufrufe per Web-Interface durchführen kann. Was Chron-Jobs i. A. betrifft, würde ich vorschlagen, mal zu googeln. Ich nehme an, Du hast einen Shared Hosting Vertrag, richtig? Frag´ Deinen Hoster, ob und wenn ja, wieviele Cron-Jobs Dir monatlich zur Verfügung stehen und wo Du sie einrichten kannst.
die robots.txt sollte grundsätzlich in der ersten Zeile Angaben zur Sitemap enthalten (sofern diese vorhanden ist). zum Beispiel so:
Sitemap: http://your-site-name.tld/sitemap2.xml
User-agent: *
Disallow: /*XTCsid
...Wenn man es nicht allen Suchmaschinen-Betreibern mitteilt, dass Deine Seite eine Sitemap hat und diese unter dem Namen sitemap2.xml zu finden ist, dann wissen es manche Bots natürlich nicht. Ein unwissender Bot wird (oder besser: sollte) dann, wenn er vorbei kommt, als erstes in der robots.txt nachsehen, ob und wo sich eine Sitemap befindet.
Gruß, Ingo
P.S.: So ausführlich bekommst Du es nur heute
... das nächste mal bitte erst Google o. a. fragen. Denn das hier ist ja ein Forum, in dem Software-spezifische Fragen geklärt werden sollen - soll ja kein Wiki werden.
*gg