-
Frage zu Robots.txt ...
Autor: RoboLady 29.04.10 - 12:16
Kann man eigentlich selbst überprüfen, ob die robots.txt das korrekte Format hat und somit der Inhalt vor Crawlern geschützt ist?
Oder sehe ich erst, wenn die Links bei Google zu finden sind, dass die robots.txt wohl fehlerhaft ist? -
Re: Frage zu Robots.txt ...
Autor: lmgtfy 29.04.10 - 12:21
http://lmgtfy.com/?q=robots.txt+testen
-
Re: Frage zu Robots.txt ...
Autor: iAnschlagspuffer 29.04.10 - 12:48
Google hält sich nicht immer an die robots.txt hatte schonmal das vergnügen das die nicht berücksichtig wurde und ein Lebenslauf indiziert wurde. Zum glück hatte ich noarchive gesetzt was wenigstens beahtet wird. Google sperrt man am besten über bekannte ip-ranges des bots aus!
-
Re: Frage zu Robots.txt ...
Autor: Kay 29.04.10 - 13:10
Viel leichter und vorallem sicherer geht's doch per .htaccess
Weiterführende Links:
http://www.google.de/search?q=per+htaccess+bots+aussperren -
Robots.txt ist freiwillig
Autor: Wikifan 29.04.10 - 16:54
Hat keinerlei Schutzwirkung. WGet hat auch die Option, die zu beachten oder zu ignorieren, wie ein normaler Besucher auf eine Seite zu gehen usw.
Kann Google alles auch.
Der BGH hat offenbar keine Ahnung, wie Suchmaschinen arbeiten.