robots.txt mal anders genutzt

Das man mit der robots.txt bestimmen kann, welche Suchroboter (Spider) welche Dateien und Ordner einlesen dürfen, ist ja ein alter Hut. Um gezielt zu steuern, welche Suchmaschine welche Inhalte spidern darf, ist die robots.txt nach wie vor, gut geeignet. Doch…

Relaunch: Parship.de

Als Webdesigner beschäftigt man sich nicht nur mit dem eigentlichen Aussehen und der Funktionalität einer Webseite, auch die Nutzerfreundlichkeit steht im Mittelpunkt der Arbeit. So wurde ich von der Senior Manager Marketing-Abteilung gebeten, den Relaunch der Partnervermittlungsplattform „Parship.de“ zu beurteilen.

Der SEO Profi aus Ihrer Nähe

Wer  sich ausführlich mit dem Thema Usability und Barrierefreiheit beschäftigt hat un die  gut gestaltete Seite online stellt, ist dann nicht nur froh, einen gewissen Arbeitsaufand geschafft zu haben, sondern freut sich auch über die Besucher der Homepage. Doch was…

Geocities – es war einmal…

Wer heute eine kostenlose Homepage haben möchte, hat im sogenanntem Web 2.0 – Zeitalter jede Menge Möglichkeiten, seine Inhalte unter einer eigenen URL abzulegen. Wie heise berichtet, stellt Yahoo den Dienst Geocities ein. Die Nutzerzahlen seien erheblich gesunken, da jede…