Placeholder

Allgemein

robots.txt mal anders genutzt

Das man mit der robots.txt bestimmen kann, welche Suchroboter (Spider) welche Dateien und Ordner einlesen dürfen, ist ja ein alter Hut. Um gezielt zu steuern, welche Suchmaschine welche Inhalte spidern darf, ist die robots.txt nach wie vor, gut geeignet. Doch…

Placeholder

Homepage erstellen

Der SEO Profi aus Ihrer Nähe

Wer  sich ausführlich mit dem Thema Usability und Barrierefreiheit beschäftigt hat un die  gut gestaltete Seite online stellt, ist dann nicht nur froh, einen gewissen Arbeitsaufand geschafft zu haben, sondern freut sich auch über die Besucher der Homepage. Doch was…