Advertisement

Das man mit der robots.txt bestimmen kann, welche Suchroboter (Spider) welche Dateien und Ordner einlesen dürfen, ist ja ein alter Hut. Um gezielt zu steuern, welche Suchmaschine welche Inhalte spidern darf, ist die robots.txt nach wie vor, gut geeignet.

Doch dieser Einsatz der robots.txt ist neu, wenn auch nicht ganz ernst gemeint:

Robots.txt mal anders genutzt

Quelle:
evisibility.com/blog/robotstxt-protecting-since-1994/
(07/2015: Quelle ist leider nicht mehr erreichbar.)

Willkommen im 21. Jahrhundert 😉

Andere Beiträge

9. DEZEMBER 2008

Webdesigner trinken gern Bier…?

Wer sich privat oder beruflich mit Webdesign...

13. MAI 2008

Es geht los

Der erste Text zum Hoempage Bau. Der Wordpress -...

Kommentar schreiben