Die Robots.txt Datei ist eine kleine, einfache Textdatei mit großer Wirkung für den Crawling-Prozess und für die technische Suchmaschinenoptimierung. In diesem Artikel erklären wir, warum jede Website eine Robots.txt Datei benötigt, wie sie funktioniert, wie sie getestet wird und einige Best Practice Tipps für die Erstellung der Robots-Angaben.
Eine Robots.txt Datei ist eine einfache Textdatei, die im Stammverzeichnis einer Website(Root Directory) platziert wird. Sie dient als wesentliche Informationsquelle für Webcrawler von Suchmaschinen und anderen automatisierten Programmen. Die Hauptfunktion dieser Datei besteht darin, Suchmaschinen und Crawlern mitzuteilen, welche Bereiche der Website gecrawlt und indexiert werden sollen und welche vor allem nicht.
Der grundlegende Aufbau der Robots.txt Datei ist recht simpel und folgt einer einfachen Syntax mit User-Agent und Disallow/Allow Anweisungen. Die wichtigsten Elemente sind:
Gibt an, für welchen Bot die folgenden Regeln gelten. Üblicherweise erteilt man die Anweisungen an alle gebräuchlichen Bots. Durch die User-agent Angabe werden spezifische Anweisungen für verschiedene Bots definiert. Man kann entweder alle Bots ansprechen (User-agent: *) oder gezielt einzelne Bots mit ihren spezifischen Namen adressieren. So lässt sich das Crawling-Verhalten für unterschiedliche Dienste und Zwecke individuell steuern.
Die Disallow- und Allow-Anweisungen in der Robots.txt Datei werden nach vordefinierten Regeln erstellt. "Allow: /" ist überflüssig, da dies standardmäßig angenommen wird, wenn keine gegenteiligen Befehle vorhanden sind.
Folgende Punkte müssen unbedingt beachtet werden, damit der Suchmaschinenbot gezielt gesteuert wird:
Wildcards ermöglichen es Webdevelopern, flexiblere und effizientere Anweisungen zu erstellen, die auf mehrere ähnliche Elemente angewendet werden können, ohne jedes einzeln spezifizieren zu müssen. Jedoch werden nicht alle Angaben von Suchmaschinen unterstützt. Deshalb dürfen Platzhalter wie "" oder ".*" bei der Erstellung der Robots.txt Datei nicht genutzt werden.
Beispiele für die Anwendung von Wildcards in der Robots.txt Datei:
Eine gut konfigurierte Robots.txt Datei kann dazu beitragen, Duplicate Content zu vermeiden, indem sie Suchmaschinen davon abhält, mehrere Versionen derselben Inhalte zu crawlen und zu indexieren. Dies ist besonders wichtig für E-Commerce-Websites mit Produktvarianten oder für Websites mit Druckversionen von Seiten.
Durch die gezielte Steuerung des Crawling-Prozesses können Sie sicherstellen, dass Suchmaschinen sich auf die wichtigsten und relevantesten Inhalte Ihrer Website konzentrieren. Dies optimiert nicht nur die Ressourcennutzung der Suchmaschinen, sondern verbessert auch die Chancen, dass Ihre wichtigsten Seiten effektiv indexiert und in den Suchergebnissen angezeigt werden.
Platzieren Sie die Datei im Stammverzeichnis Ihrer Website (z.B. www.example.com/robots.txt).
Verwenden Sie die korrekte Syntax:
User-agent: *
Disallow: /private/
Sitemap: https://www.example.com/sitemap.xml
Blockieren Sie sensible oder unwichtige Bereiche:
User-agent: *
Disallow: /admin/
Disallow: /cgi-bin/
Fügen Sie den Pfad zu Ihrer XML-Sitemap hinzu:
Sitemap: https://www.example.com/sitemap.xml
Verwenden Sie spezifische User-Agents für bestimmte Bots:
User-agent: Googlebot
User-agent: Bingbot
Disallow: /bingbot-specific/
Beachten Sie jedoch, dass die Robots.txt Datei keine absolute Garantie für den Ausschluss von Seiten aus dem Index bietet. Für sensible Inhalte sollten zusätzliche Maßnahmen wie Passwortschutz oder Meta-Robots-Tags verwendet werden. Übrigens: In den meisten Content Management Systemen ist die Erstellung der Robots.txt Datei automatisiert möglich. Im Zuge eines SEO Onsite Audits und vor allem bei Website Relaunches muss die Datei standardmäßig überprüft werden.
Durch sorgfältiges Testen stellen Sie sicher, dass Ihre Robots.txt Datei effektiv funktioniert und Ihre Website wie gewünscht von Suchmaschinen gecrawlt wird. Hier sind einige Tipps für den Test der Robots.txt Datei
Rufen Sie Ihre Robots.txt Datei in verschiedenen Browser auf, indem Sie "/robots.txt" an Ihre Domain anhängen (z.B. www.example.com/robots.txt). Stellen Sie sicher, dass die Datei erreichbar ist und korrekt angezeigt wird.
Verwenden Sie kostenlose Online-Validatoren wie den Google Search Console Robots.txt Tester oder andere Drittanbieter-Tools. Diese prüfen die Syntax und zeigen mögliche Fehler an.
Geben Sie in den Validatoren einzelne URLs Ihrer Website ein, um zu prüfen, ob diese korrekt erlaubt oder blockiert werden.
Achten Sie auf korrekte Formatierung, Groß- und Kleinschreibung sowie die richtige Verwendung von Direktiven wie "User-agent", "Allow" und "Disallow".
Überprüfen Sie die Sitemap-Einträge:
Falls vorhanden, stellen Sie sicher, dass der Verweis auf Ihre XML-Sitemap korrekt ist.
Wenn Sie Änderungen vornehmen, testen Sie diese zunächst in einer Testumgebung, bevor Sie sie live schalten.
Beobachten Sie nach Änderungen, ob die gewünschten Seiten korrekt indexiert oder ausgeschlossen werden.
Testen Sie Ihre Robots.txt in regelmäßigen Abständen, besonders nach Änderungen an Ihrer Website-Struktur.
Durch die sorgfältige Implementierung und regelmäßige Überprüfung Ihrer Robots.txt Datei können Sie die Sichtbarkeit Ihrer Website in Suchmaschinen optimieren und gleichzeitig unerwünschte Indexierung vermeiden.#
Eine fehlerhafte robots.txt Datei kann erhebliche negative Auswirkungen auf das Suchmaschinenranking einer Website haben. Hier sind einige Beispiele, die es zu vermeiden gilt.
Der schwerwiegendste Fehler ist, wenn versehentlich wichtige URLs oder ganze Bereiche der Website vom Crawling ausgeschlossen werden. Dies führt dazu, dass diese Seiten nicht indexiert und somit auch nicht in den Suchergebnissen angezeigt werden können.
Wenn unwichtige Seiten nicht ausgeschlossen werden, verschwendet dies das Crawl-Budget. Suchmaschinen-Crawler verbringen dann Zeit mit dem Durchsuchen irrelevanter Inhalte, anstatt sich auf die wichtigen Seiten zu konzentrieren.
Werden ähnliche oder doppelte Inhalte nicht korrekt ausgeschlossen, kann dies zu Problemen mit Duplicate Content führen, was sich negativ auf das Ranking auswirken kann.
Fehler in der robots.txt können dazu führen, dass neue oder aktualisierte Inhalte nicht zeitnah gecrawlt und indexiert werden.
Wenn wichtige interne Verlinkungen durch fehlerhafte Anweisungen blockiert werden, kann dies den Fluss des Linkjuice beeinträchtigen und die Autorität einzelner Seiten schwächen.
Im Gegensatz dazu können falsche Einstellungen auch dazu führen, dass sensible oder private Inhalte für Suchmaschinen zugänglich werden. Dies gilt zum Beispiel für Kundendaten und Admin-Verzeichnisse, die nicht für die Öffentlichkeit gedacht sind.
Um diese Probleme zu vermeiden, ist es wichtig, die robots.txt sorgfältig zu konfigurieren und regelmäßig zu überprüfen. Die Verwendung von Test-Tools und eine genaue Überwachung der Indexierung in den Webmaster-Tools der Suchmaschinen sind dabei hilfreich.
Autor:
Friederike Baer ist Expertin für Technisches SEO und Content Marketing.
Sie schreibt regelmäßig für unseren rankingfusions Blog über technisches SEO und Trends in der Suchmaschinenoptimierung.
Zur Recherche für diesen Artikel hat Friederike auf Quellen von SearchEngineLand und des sehr geschätzten
SEO Experten Markus Hövener genutzt. Ein wenig KI-Recherche ist ebenfalls dabei.