Heitere Hitzewelle hemmt heimarbeitende Home-Office-SEOs. Tjoa, wir an de Waterkant haben da noch gut reden, bei uns sind es ja nur so um die 30°. Unvorstellbar, wie gut ein kühles Gia Giamas bei unseren Freunden in den 40er-Regionen ist. Puhhh 40°... Um ehrlich zu sein stelle ich es mir noch schlimmer vor als Gin-Yoga auf dem Hotstone.
Aber es nützt ja alles nix... wo geSEOt wird, da tropfen Schweißspähne. Drum haben Euch die Wingmenschen auch in dieser heißen Ausgabe ein paar coole Häppchen ausgearbeitet:
Nils schimpft über Googles Indexierungs-Chaos
Nora freut sich über die GSC-Report-Erweiterung für Videos
Jolle berichtet von Googles schrulliger Content-Interpretation
Flo ergötzt sich am Artikel über Suchintentionen von Olaf
Matt stolpert über seinen eigenen DC und gibt Dir Tipps, wie Du Fehler vermeidest
Übrigens... unter allen Video-Posts, Tweets oder TikToks mit dem Inhalt "Ich habe den Wingmen-Newsletter gelesen und ich schwitze" verlosen wir
diese Bade-Insel
(Einsendeschluss: Mittwoch, 19.07.2022 17:00 Uhr)
.
Geteiltes Leid ist halbes Leid. Daher möchte ich meine zunehmende Frustration über gefühlt immer mehr werdende Ungereimtheiten in der "Zusammenarbeit" mit Google mit Dir teilen. In der Hoffnung, dass es mir danach besser geht. Vielleicht geht es Dir ähnlich und Du fühlst Dich ein kleines Stück weniger allein mit den dicken Fragezeichen, die die Suchmaschine unseres Vertrauens manchmal hinterlässt.
Oder aber Du hast genau diese Probleme auch schon gehabt und die Lösung parat. Dann gerne dringend melden!
#1 robots.txt oder wer liest die eigentlich?
Bei mittlerweile zwei Projekten finde ich eine ganze Reihe an URLs, die nicht indexiert werden. Die Search Console sagt dazu "Blocked by robots.txt". Soweit so gut, das kann ja vorkommen. Aber verdammt nochmal nicht, wenn die betroffenen URLs keiner einzigen Regel in der besagten Datei unterliegen. 😡
Selbst das
robots.txt Testing Tool
von Google bescheinigt mir, dass die URLs nicht gesperrt sind. Lügt mich also einfach der GSC-Bericht an und die Seiten werden heimlich indexiert? Site Search und URL-Inspektion sagen nein, tatsächlich nicht indexiert. Das führt zu dem Schluss, dass entweder sehr merkwürdige Umstände zu sehr spontanen robots.txt-Fluktuationen führen (was eigentlich ausgeschlossen ist). Oder das Google nun anfängt, auch die robots.txt mehr als Richtlinie zu behandeln, als als Direktive. Oder sie komplett ignoriert.
Beides zugegebenermaßen nicht besonders wahrscheinlich. Dennoch merkwürdig, dass es gleich an zwei Stellen passiert und die Informationen aus GSC und robots.txt-Test komplett gegensätzlich sind.
#2 Wer wird denn da gleich indexieren wollen?
Einen Schritt weiter sind wir bei meinem zweiten Stein des Anstoßes. Da hat Google wenigstens nicht die falsche Annahme, sich bestimmte URLs nicht ansehen zu dürfen. Aber nachdem im vergangenen Dezember (!) einige URLs von "noindex" auf "index" gestellt wurden, wollte ich meinen Augen kaum glauben, als sie dann tatsächlich vor ein paar Wochen in den Index aufgenommen wurden. 😳
Seit einiger Zeit hat man ja das Gefühl, dass bei Google ein oder mehrere Data Centers den Geist aufgegeben haben müssen. Aber noch bizarrer ist, wenn der Crawler in der Zwischenzeit die Seite besucht hat, den beantragten Fix als "validiert" meldet, die Seiten aber weiter im Bericht "Submitted URL marked 'noindex'" führt.
So langsam habe ich das Gefühl, dass unser
"Och Menno! GUUHGL"-Spiel
ein Add-On gebrauchen kann. Wobei ich diesmal für die Objektivität der Schmerz-Skala keine Garantie abgeben würde. Sowohl das Tempo der Indexierung als auch die Berichterstattung darüber lassen doch aktuell leider sehr zu wünschen übrig.
#3 Niemand hat die Absicht, Seiten vom Index auszuschließen
Google ist doch Freund aller Seiten. Als solcher käme man ja auch nicht auf die Idee, größere Anteile einer Seite in 'Crawled - Currently not indexed' oder 'Discovered - Currently not indexed' zu parken. Wobei man das insbesonder bei größeren Seiten mit hunderttausenden an URLs ja noch verstehen könnte.
Insbesondere aber bei kleineren Seiten wundert man sich dann doch. Nochmal insbesondere dann, wenn gleichzeitig die URLs mit Weiterleitungen auf die von Google nicht indexierten URLs weiter im Index bleiben, aber mit langsam abnehmenden Positionen. Man könnte ja schlichtweg das Weiterleitungsziel indexieren, auf das sämtliche anderen Seitensignale auch zeigen. Aber das wäre wohl zu langweilig.
Nichts wird so heiß gegessen, wie es gekocht wird
Und eine tiefgehende Analyse dieser Probleme wird womöglich in den jeweiligen Bereichen noch eine mögliche Ursache auftun können. Dennoch juckt es einem manchmal in den Fingern, einen
Flug nach Irland
zu buchen. Ich fühle mich aber tatsächlich schon etwas besser und spare mir das Geld und meinen CO2-Fußabdruck nochmal auf.
Hast Du gerade auch etwas SEO-Frust? Lass es uns wissen, vielleicht finden wir gemeinsam die Lösung!
Darunter gibt es dann eine Auflistung von Gründen, warum Dein(e) Video(s) nicht indexiert wurde(n). 💡
Zusätzlich wird das URL Inspection Tool der Google Search Console erweitert. Sofern Google ein Video erkennt, bekommst Du folgende Informationen für eine URL:
Detaillierte Informationen wie die URL des Videos oder die Thumbnail-URL
Ob Dein Video indexiert wurde oder nicht
Eine Auflistung der Issues, warum Dein Video von der Indexierung ausgeschlossen wurde
Achtung! Im Live-Test Deiner URL erhältst Du diese Informationen nicht. Hier gibt es nur einen Hinweis, ob Google ein Video auf Deiner Seite erkannt hat oder nicht. ⚠️
Der neue Report wird in den kommenden Monaten nach und nach hinzugefügt. Hast Du schon einen Anwendungsfall für den neuen Bericht? 🎥
Ein alter Blogpost von ihr, der in der Vergangenheit ganz ausgezeichnet bei Google gerankt hat, war plötzlich nicht mehr in der Google-Suche aufzufinden. Klar, die Rankings können abschmieren, aber gar kein Auffinden in den SERPs mehr? Das riecht nach De-Indexierung.
Ein Blick auf das Meta Tag im HTML Head verriet: "index, follow". Die Seite hätte also eigentlich indexiert sein müssen. Ob Kristina auch geprüft hat, ob die URL per robots.txt für Google gesperrt ist, ist nicht übermittelt, aber sie berichtet: "the website was healthy".
Doch dann. Der Blick vom Head herab auf den Body. Da war sie, die unsägliche Direktive, die aus dem arglosen Artikel "Schrödingers Seite" mit zwei konträren Zuständen gleichzeitig machte. Im Artikeltext selbst war das
Robots Meta Tag
in einem Code-Snippet zitiert - und zwar mit der Direktive "noindex, follow". Dass das bereits eine wilde Kombination ist, lassen wir an dieser Stelle außer Acht. Aber was war passiert?
Google hatte die Tag-Erwähnung im Text für bare Münze genommen und tatsächlich auf die Artikelseite angewendet, obwohl die Direktive nicht im HTML Head der Seite, sondern im Body stand. 😱😱 😱
Und das war kein einmaliger Ausrutscher. Kristina hat das Verhalten Googles anschließend mit einer Testseite stabil reproduziert. So sehr wir anständige Zitate mögen, wenn es um das Robots Meta Tag geht, solltest Du in Artikeln nicht zu genau zitieren - vor allem dann nicht, wenn Du beispielsweise in WordPress im Code-Editor statt im visuellen Editor unterwegs bist... 💡🥴
Immer wieder gern gebe ich SEO-Einsteigern den Tipp sich intensiv mit Suchintentionen und der daraus folgenden Gestaltung der SERPs intensiv auseinanderzusetzen. Bei vielen fällt da der Groschen und immer ist es eine Bereicherung für die Herangehensweise bei der Optimierung. Der großartige
Einsteiger-Artikel von Sistrix zum Thema Suchintentionen
wird von Olaf nochmal ein paar Detailstufen weiter heruntergebrochen und auf bestehende SERP-Specials in der OneBox wie
Kalkulatoren
, den
Wetterberichten
,
Zeit-Berechnung
,
Übersetzungen
oder
Entitäten-Details
angewendet.
Olaf unterscheidet 12 Micro Intents, die er unter die altbekannten 3 Intentions-Säulen stellt:
Informational:
Entertainment
Definition
Expansional
Enablement
Aggregation/Overview
Transactional:
Comparison/Orientation
Category/Selection
Service/Product
Brand
Navigational:
Support
Location
Website
Neben einer ausführlichen Erläuterung, was er unter diesen Micro Intents genau versteht, geht er noch einen Schritt weiter und ordnet diese Intents auch noch in die Customer Journey ein. Dabei gibt er Hilfestellung, welches Inhaltsformat für welchen Micro-Intent in der Journey das passendste ist.
Absolute Lese-Empfehlung mit dem Hinweis: Nimm Dir Zeit nicht nur zum Lesen, sondern auch für Deine eigenen Gedanken.
Welche Micro Intents passieren entlang der Customer Journey Deiner Kunden? Alle Themen abgedeckt? An jeder Stelle schon das richtige Inhaltsformat? Dann weißt Du ja jetzt, wie Du Deine Content-Strategie raketenmäßig vorantreiben kannst, oder?🚀
Auch Du hast es sicher schon einmal erlebt: Du veröffentlichst einen neuen Artikel, der nach einer gefühlten Ewigkeit immer noch nicht richtig durchstarten will. Oder Du wunderst Dich, wieso eine bestimmte URL auf einmal nicht mehr so gut performt wie noch vor wenigen Wochen.
Du machst Dich auf die Spurensuche und schon nach kurzer Zeit hast du das Problem identifiziert: Interner Duplicate Content! Dabei hast Du extra aufgepasst, jetzt ist es aber doch (wieder einmal) passiert.
Absichtlich produziert natürlich niemand internen Duplicate Content, aber manchmal passiert es eben doch, dass zwei URLs der eigenen Seite für ein bestimmtes Keyword miteinander konkurrieren. Dann stellt sich natürlich die Frage, was man dagegen unternehmen kann und wie man das Problem mit den duplizierten Inhalten am besten löst.
Um Dich bei dem Thema zu unterstützen, habe ich hier vier Vorschläge für Dich, wie Du internen Duplicate Content idealerweise aus der Welt schaffst:
Canonical Tag:
Die erste Option besteht darin, ein sogenanntes Canonical Tag im Quellcode einer der Duplicate-URLs zu implementieren, wobei die weniger relevante Seite auf die wichtigere URL verweisen sollte. Damit wird Google gezeigt, bei welcher URL es sich um das Original handelt und welche lediglich eine Kopie davon darstellt und somit von der Suchmaschine vernachlässigt werden kann. Der entsprechende Code sieht dabei folgendermaßen aus:
Canonical Tags können übrigens auch domainübergreifend gesetzt werden.
Hauptkeyword einer URL ändern:
Eine weitere Möglichkeit im Kampf gegen Duplicate Content ist es, einfach das Hauptkeyword von einer der beiden Seiten zu ändern. Dieser Weg ist allerdings mit viel Aufwand verbunden und garantiert auch nicht, dass das Duplicate Content-Problem damit behoben ist.
Seiten zusammenführen:
Der nächste Weg, um Schwierigkeiten mit Duplicate Content zu eliminieren, besteht darin, die beiden konkurrierenden URLs einfach in einer Seite zusammenzuführen. Die alte URL kann dann mittels 301-Redirect auf die angepasste Seite weitergeleitet werden, während die zusammengeführte URL idealerweise von der Konsolidierung beider Inhalte profitiert.
Vorausschauender planen:
Der vermutlich logischste Punkt folgt zum Abschluss. Die Seitenhierarchie und Deine Inhalte sollten bereits im Voraus genau geplant werden, damit Duplicate Content gar nicht erst auftritt. So ein Ratschlag ist natürlich erst einmal wenig zufriedenstellend, wenn das Kind bereits in den Brunnen gefallen ist. Aber wie heißt es so schön: Aus Fehlern lernt man und auch wenn man duplizierte Inhalte vermutlich nie völlig vermeiden kann, so kann man sie mit der richtigen Planung zumindest auf ein Minimum reduzieren. Für einen besseren Überblick eignet sich intern etwa ein Contentplan, um bereits bestehende und noch kommende Themen stets im Blick behalten zu können.
Save the Date 🎊
Morgen, am 19. Juli, ist es mal wieder Zeit für das SEO Meetup Hamburg.
Um 19:00 startet der Live-Stream. Dieses Mal zu Gast:
Stefan Vorwerk
mit seinem Vortrag "1.000 Onlineshops im SEO-Review", den er auch schon auf der Campixx zum Besten gegeben hat.