Die robots.txt-Datei auf einer WordPress-Seite wird oft übersehen, dabei kann sie erheblich dazu beitragen, unnötige Suchmaschinenaktivitäten zu reduzieren und die Indexierung schlanker zu gestalten. Viele WordPress-Seiten beginnen mit einer Standard-robots.txt-Konfiguration, die basale Direktiven enthält, jedoch nicht immer optimal ist. Mit ein paar gezielten Ergänzungen und Anpassungen kannst du erheblich die Kontrolle über den Crawling- und Indexierungsprozess deiner Website verbessern.
Inhaltsverzeichnis
ToggleDie Position der WordPress robots.txt-Datei
WordPress generiert standardmäßig eine virtuelle robots.txt-Datei. Du kannst sie aufrufen, indem du /robots.txt an die URL deiner Seite anhängst (z. B. https://deineseite.com/robots.txt). Diese Standarddatei ist virtuell und wird nicht auf deinem Server als physische Datei gespeichert. Solltest du jedoch eine eigene robots.txt verwenden wollen, genügt es, diese direkt in das Root-Verzeichnis deines WordPress-Installationsordners hochzuladen.
Du kannst dies entweder manuell über ein FTP-Programm erledigen oder ein Plugin wie Yoast SEO verwenden, das dir im Adminbereich eine einfache Bearbeitungsoberfläche für die robots.txt zur Verfügung stellt.
Die Standard-robots.txt und warum sie nicht ausreicht
WordPress erstellt standardmäßig eine robots.txt-Datei mit folgendem Inhalt:
User-agent: * Disallow: /wp-admin/ Allow: /wp-admin/admin-ajax.php
Zwar ist dies eine sichere Konfiguration, aber nicht optimal, da sie keine XML-Sitemap angibt oder überflüssiges Crawling vermeidet.
Füge immer deine XML-Sitemaps hinzu
Eine wichtige Ergänzung zu deiner robots.txt sind deine XML-Sitemaps. Sie helfen Suchmaschinen, wichtige URLs schneller zu entdecken:
Sitemap: https://deineseite.com/sitemap_index.xml Sitemap: https://deineseite.com/sitemap2.xml
Verzeichnisse, die du nicht blockieren solltest
Bestimmte veraltete Empfehlungen besagen, dass du Verzeichnisse wie /wp-includes/ oder /wp-content/plugins/ blockieren solltest. Das solltest du aber nicht tun, da:
- Moderne Suchmaschinen in der Lage sind, irrelevante Dateien selbst zu ignorieren.
- Das Blockieren von CSS- und JavaScript-Dateien die korrekte Darstellung und Indexierung deiner Seite beeinträchtigen kann.
Staging-Websites abschirmen
Wenn du Staging-Websites verwendest, stelle sicher, dass diese nicht in Suchmaschinenindexe aufgenommen werden. Eine Methode hierzu ist die komplette Blockierung durch die robots.txt:
User-agent: * Disallow: /
Zusätzlich kannst du in WordPress unter den Lesereinstellungen die Option „Suchmaschinen von der Indexierung dieser Website abhalten“ aktivieren. Denke daran, diese Einstellungen vor dem Live-Schalten der Seite rückgängig zu machen.
Unnötige WordPress-Verzeichnisse blockieren
Bestimmte WordPress-Standardpfade sollten auf jeden Fall blockiert werden, da sie keinen Mehrwert für deine SEO-Strategie bieten:
Disallow: /trackback/ Disallow: /comments/feed/ Disallow: */embed/ Disallow: /cgi-bin/ Disallow: /wp-login.php
Bestimmte URL-Parameter blockieren
Parameter wie beispielsweise replytocom (Antworten in Kommentaren) oder print (Druckversionen) erzeugen oft unnötige Crawling-Last. Diese kannst du mit folgenden Einträgen effektiv blockieren:
User-agent: * Disallow: /*?*replytocom= Disallow: /*?*print=
Mit niedrigwertigen Taxonomien und Suchseiten umgehen
Tag-Archive oder interne Suchseiten, die keinen Mehrwert bieten, können ebenfalls in der robots.txt blockiert werden:
User-agent: * Disallow: /tag/ Disallow: /page/ Disallow: /?s=
Die Effektivität prüfen
Kontrolliere regelmäßig die Crawl-Statistiken in der Google Search Console. So kannst du sicherstellen, dass Bots keinen unnötigen Ressourcenverbrauch verursachen. Folgende Punkte helfen dir dabei:
- Nutze in der Search Console den Crawl-Statistik-Bericht im Bereich Einstellungen.
- Überprüfe mit dem URL-Inspektions-Tool, ob blockierte Seiten trotzdem indexiert sind.
- Stelle sicher, dass deine XML-Sitemaps nur gewünschte Seiten referenzieren.
Fazit
Die robots.txt-Datei ist ein kraftvolles Werkzeug, um unnötige Crawler-Anfragen zu reduzieren und deine Website gegenüber Suchmaschinen effizienter zu gestalten. Nutze die hier genannten Tipps, um deine WordPress-Installation zu optimieren, und spare durch präzises Crawling wertvolle Serverressourcen.





