Die Webdesign Homepage

robots.txt mal anders genutzt

von am Aug.21, 2009, unter Allgemein gespeichert.

Das man mit der robots.txt bestimmen kann, welche Suchroboter (Spider) welche Dateien und Ordner einlesen dürfen, ist ja ein alter Hut. Um gezielt zu steuern, welche Suchmaschine welche Inhalte spidern darf, ist die robots.txt nach wie vor, gut geeignet.

Doch dieser Einsatz der robots.txt ist neu, wenn auch nicht ganz ernst gemeint:

Robots.txt mal anders genutzt

Quelle:
evisibility.com/blog/robotstxt-protecting-since-1994/
(07/2015: Quelle ist leider nicht mehr erreichbar.)

Willkommen im 21. Jahrhundert 😉

:, , ,
Noch keine Kommentare...

Kommentar hinterlassen

Suchen Sie etwas?

Tragen Sie den Begriff ein, den Sie suchen: