robots.txt mal anders genutzt

Das man mit der robots.txt bestimmen kann, welche Suchroboter (Spider) welche Dateien und Ordner einlesen dürfen, ist ja ein alter Hut. Um gezielt zu steuern, welche Suchmaschine welche Inhalte spidern darf, ist die robots.txt nach wie vor, gut geeignet. Doch…

Aus Webdesign wird Web Entwicklung

Wer als Hobby eine eigene private Homepage betreibt, hat sicher irgendwann den Wunsch, einige Funktionen auf der Seite hinzu zufügen. Ob es ein Widget oder ein umfassendes Script ist – aus dem puren Webdesign, bei dem es nur um das…

Relaunch: Parship.de

Als Webdesigner beschäftigt man sich nicht nur mit dem eigentlichen Aussehen und der Funktionalität einer Webseite, auch die Nutzerfreundlichkeit steht im Mittelpunkt der Arbeit. So wurde ich von der Senior Manager Marketing-Abteilung gebeten, den Relaunch der Partnervermittlungsplattform „Parship.de“ zu beurteilen.