URL-Aufrufe mit Parametern per robots.txt verbieten

Anleitung: Akkutausch beim Ion Audio Blockrocker

Icon AnleitungenHeute habe ich ein kleines Indexierungsproblem bei einer Kundenwebseite festgestellt. Diese arbeitet mit einem Shopsystem, das zwar “sprechende URLs” unterstützt und damit schon ein bisschen SEO-Freundlichkeit aufweist, aber leider bietet es die Sortierung von Produktlisten und hängt damit jede Menge Parameter an die schönen URLs, die dadurch natürlich viel zu oft indexiert werden. Die Folge ist [doppelter Inhalte (duplicate content)->duplicate-content] in Hülle und Fülle.

Um dem Webmaster die Arbeit möglichst einfach zu machen, habe ich darum eine Lösung mit der [robots.txt Datei->robots-txt] gesucht, die hilft, die Indexierung von solchen Sortierungsseiten zu unterbinden. Das Ganze läßt sich in meinem Fall einfach lösen, da die Dateien normalerweise mit “.html” enden und nur bei den Sortierungen ein “.html?irgendwas=irgendwie” zu finden ist. Dieser Zusatz in der robots.txt tut ab sofort seine Arbeit auf der Kundenseite:

Allow: /*.html$
Disallow: /*.html?*

Wenn eure Dateien mit .php enden, müsst ihr den Eintrag natürlich entsprechend anpassen. Und gebt Google ruhig ein paar Wochen, bis er die Seiten aus dem Index geworfen hat, die nun auf verboten sind. Tante G ist nicht die Schnellste…

Meine Tipps & Tricks rund um Technik & Apple

Hat dir der Artikel gefallen und helfen dir die Anleitungen im Blog? Dann würde ich mich freuen, wenn du das Blog über eine Steady-Mitgliedschaft unterstützen würdest.

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Im Sir Apfelot Blog findest du Ratgeber, Anleitungen und Testberichte zu Apple Produkten wie iPhone, iPad, Apple Watch, AirPods, iMac, Mac Pro, Mac Mini und Mac Studio.

Specials
Shopping
  •  
  •  

Meine Tipps & Tricks rund um Technik & Apple