Share this post

Das man mit der robots.txt bestimmen kann, welche Suchroboter (Spider) welche Dateien und Ordner einlesen dĂŒrfen, ist ja ein alter Hut. Um gezielt zu steuern, welche Suchmaschine welche Inhalte spidern darf, ist die robots.txt nach wie vor, gut geeignet.

Doch dieser Einsatz der robots.txt ist neu, wenn auch nicht ganz ernst gemeint:

Robots.txt mal anders genutzt

Quelle:
evisibility.com/blog/robotstxt-protecting-since-1994/
(07/2015: Quelle ist leider nicht mehr erreichbar.)

Willkommen im 21. Jahrhundert 😉

Andere BeitrÀge

9. JULI 2010

Eigene Homepage professionell erstellen lassen

…Hoppla, schon lĂ€nger nicht mehr gebloggt...

19. AUGUST 2009

Aus Webdesign wird Web Entwicklung

Wer als Hobby eine eigene private Homepage...

Hinterlasse einen Kommentar