Google hat kürzlich seine Dokumentation aktualisiert und die Empfehlung entfernt, automatisch übersetzte Seiten mithilfe der Datei „robots.txt“ aus den Suchergebnissen auszuschließen. Diese Änderung bringt die technischen Dokumente von Google mit ihren seit über einem Jahr geltenden Spam-Richtlinien in Einklang.
Interessant ist, dass diese Änderung offiziell keinerlei neues Verhalten einführt. Google bestätigte in seinem Search Central Changelog, dass dies lediglich eine Dokumentationsänderung ist. Dennoch reflektiert diese kleine Anpassung Googles veränderte Einstellung gegenüber automatisch erstelltem Inhalt.
Inhaltsverzeichnis
ToggleWarum die Änderung wichtig ist
Zuvor enthielt die Dokumentation Empfehlungen, automatisch übersetzte Inhalte auszuschließen, da sie potenziell als minderwertig betrachtet werden konnten. Allerdings hat Google seine Haltung mit den neuen „Scaled Content Abuse“-Richtlinien angepasst. Diese Richtlinien bewerten Inhalte auf der Grundlage ihres Nutzens für die Nutzer – unabhängig von der Methode, wie diese Inhalte erstellt wurden.
Früherer Ansatz
- Automatisch übersetzte Inhalte standardmäßig durch robots.txt blockieren.
- Proaktive Vermeidung der Indexierung automatisierter Inhalte.
Neuer Ansatz
- Qualität der Übersetzungen fallweise bewerten.
- Fokus auf den Mehrwert für den Nutzer und nicht auf die Entstehung der Inhalte legen.
- Seiten-spezifische Steuerungen wie „noindex“-Meta-Tags bevorzugen, anstatt pauschale Ausschlüsse vorzunehmen.
Hinweis: Während Google automatisch übersetzte Inhalte nie pauschal als Spam bezeichnet hat, schienen frühere Hinweise den standardmäßigen Ausschluss solcher Seiten zu favorisieren. Die neuen Richtlinien fördern hingegen eine individuellere Bewertung.
Empfehlungen
Um dieser Änderung gerecht zu werden, empfiehlt es sich, folgende Schritte zu unternehmen:
- Überprüfe deine robots.txt: Entferne veraltete Regeln, die übersetzte Inhalte blockieren, sofern diese Inhalte den Nutzer tatsächlich unterstützen.
- Setze Qualitätsstandards: Gute maschinelle Übersetzungen können erhalten bleiben, während minderwertige Übersetzungen mit „noindex“ versehen werden sollten.
- Fokussiere dich auf den Nutzer: Frage dich, ob die übersetzten Inhalte internationalen Besuchern wirklich helfen oder lediglich dazu dienen, Keyword-Abdeckung zu maximieren.
- Nutzere transparente Steuerungsoptionen: Spezifische Meta-Tags bieten ein effizienteres und gezielteres Werkzeug als die pauschale Blockierung über robots.txt.
Weitere Informationen findest du auch in Googles eigenen Ratschlägen, wann „noindex“ gegenüber „disallow“ bevorzugt werden sollte.
Das Fazit
Obwohl diese kleine Änderung der Dokumentation möglicherweise unbedeutend wirkt, zeigt sie einen wichtigen Wandel in Googles Haltung. Die Konzentration auf den Mehrwert für den Nutzer wird immer mehr betont, und die bisherigen Vorbehalte gegenüber automatisch erstellten Inhalten scheinen nach und nach abzunehmen. Für SEO-Profis und Webmaster bedeutet dies, flexibel zu bleiben und den Fokus weiterhin auf hochwertige Inhalte zu legen.