Wirklich wahres Wingmen SEO Wissen für wache Webmarketer #112
Wingmen Online Marketing GmbH Logo
Florian Stelzner
Florian Stelzner
Geschäftsführender Gesellschafter
🥵 Sing Hölleluja, SEO, yeah!

Heitere Hitzewelle hemmt heimarbeitende Home-Office-SEOs. Tjoa, wir an de Waterkant haben da noch gut reden, bei uns sind es ja nur so um die 30°. Unvorstellbar, wie gut ein kühles Gia Giamas bei unseren Freunden in den 40er-Regionen ist. Puhhh 40°... Um ehrlich zu sein stelle ich es mir noch schlimmer vor als Gin-Yoga auf dem Hotstone.

Aber es nützt ja alles nix... wo geSEOt wird, da tropfen Schweißspähne. Drum haben Euch die Wingmenschen auch in dieser heißen Ausgabe ein paar coole Häppchen ausgearbeitet:

  • Nils schimpft über Googles Indexierungs-Chaos

  • Nora freut sich über die GSC-Report-Erweiterung für Videos

  • Jolle berichtet von Googles schrulliger Content-Interpretation

  • Flo ergötzt sich am Artikel über Suchintentionen von Olaf

  • Matt stolpert über seinen eigenen DC und gibt Dir Tipps, wie Du Fehler vermeidest

Übrigens... unter allen Video-Posts, Tweets oder TikToks mit dem Inhalt "Ich habe den Wingmen-Newsletter gelesen und ich schwitze" verlosen wir diese Bade-Insel (Einsendeschluss: Mittwoch, 19.07.2022 17:00 Uhr) .

Viel Spaß beim Lesen Deine Wingmen❣️

Was wir gelesen haben
Nils Warnick
Nils Warnick
Consultant
Rant (not fishkin) against the machine

Geteiltes Leid ist halbes Leid. Daher möchte ich meine zunehmende Frustration über gefühlt immer mehr werdende Ungereimtheiten in der "Zusammenarbeit" mit Google mit Dir teilen. In der Hoffnung, dass es mir danach besser geht. Vielleicht geht es Dir ähnlich und Du fühlst Dich ein kleines Stück weniger allein mit den dicken Fragezeichen, die die Suchmaschine unseres Vertrauens manchmal hinterlässt.

Oder aber Du hast genau diese Probleme auch schon gehabt und die Lösung parat. Dann gerne dringend melden!

#1 robots.txt oder wer liest die eigentlich?

Bei mittlerweile zwei Projekten finde ich eine ganze Reihe an URLs, die nicht indexiert werden. Die Search Console sagt dazu "Blocked by robots.txt". Soweit so gut, das kann ja vorkommen. Aber verdammt nochmal nicht, wenn die betroffenen URLs keiner einzigen Regel in der besagten Datei unterliegen. 😡

Selbst das robots.txt Testing Tool von Google bescheinigt mir, dass die URLs nicht gesperrt sind. Lügt mich also einfach der GSC-Bericht an und die Seiten werden heimlich indexiert? Site Search und URL-Inspektion sagen nein, tatsächlich nicht indexiert. Das führt zu dem Schluss, dass entweder sehr merkwürdige Umstände zu sehr spontanen robots.txt-Fluktuationen führen (was eigentlich ausgeschlossen ist). Oder das Google nun anfängt, auch die robots.txt mehr als Richtlinie zu behandeln, als als Direktive. Oder sie komplett ignoriert.

Beides zugegebenermaßen nicht besonders wahrscheinlich. Dennoch merkwürdig, dass es gleich an zwei Stellen passiert und die Informationen aus GSC und robots.txt-Test komplett gegensätzlich sind.

#2 Wer wird denn da gleich indexieren wollen?

Einen Schritt weiter sind wir bei meinem zweiten Stein des Anstoßes. Da hat Google wenigstens nicht die falsche Annahme, sich bestimmte URLs nicht ansehen zu dürfen. Aber nachdem im vergangenen Dezember (!) einige URLs von "noindex" auf "index" gestellt wurden, wollte ich meinen Augen kaum glauben, als sie dann tatsächlich vor ein paar Wochen in den Index aufgenommen wurden. 😳

Seit einiger Zeit hat man ja das Gefühl, dass bei Google ein oder mehrere Data Centers den Geist aufgegeben haben müssen. Aber noch bizarrer ist, wenn der Crawler in der Zwischenzeit die Seite besucht hat, den beantragten Fix als "validiert" meldet, die Seiten aber weiter im Bericht "Submitted URL marked 'noindex'" führt.

So langsam habe ich das Gefühl, dass unser "Och Menno! GUUHGL"-Spiel ein Add-On gebrauchen kann. Wobei ich diesmal für die Objektivität der Schmerz-Skala keine Garantie abgeben würde. Sowohl das Tempo der Indexierung als auch die Berichterstattung darüber lassen doch aktuell leider sehr zu wünschen übrig.

#3 Niemand hat die Absicht, Seiten vom Index auszuschließen

Google ist doch Freund aller Seiten. Als solcher käme man ja auch nicht auf die Idee, größere Anteile einer Seite in 'Crawled - Currently not indexed' oder 'Discovered - Currently not indexed' zu parken. Wobei man das insbesonder bei größeren Seiten mit hunderttausenden an URLs ja noch verstehen könnte.

Insbesondere aber bei kleineren Seiten wundert man sich dann doch. Nochmal insbesondere dann, wenn gleichzeitig die URLs mit Weiterleitungen auf die von Google nicht indexierten URLs weiter im Index bleiben, aber mit langsam abnehmenden Positionen. Man könnte ja schlichtweg das Weiterleitungsziel indexieren, auf das sämtliche anderen Seitensignale auch zeigen. Aber das wäre wohl zu langweilig.

Nichts wird so heiß gegessen, wie es gekocht wird

Und eine tiefgehende Analyse dieser Probleme wird womöglich in den jeweiligen Bereichen noch eine mögliche Ursache auftun können. Dennoch juckt es einem manchmal in den Fingern, einen Flug nach Irland zu buchen. Ich fühle mich aber tatsächlich schon etwas besser und spare mir das Geld und meinen CO2-Fußabdruck nochmal auf.

Hast Du gerade auch etwas SEO-Frust? Lass es uns wissen, vielleicht finden wir gemeinsam die Lösung!

Nora Tiedemann
Nora Tiedemann
Junior Consultant
Die GSC bekommt einen Video-Report 🎥 🎉

Auf dem Google Search Central Blog wurde am 11.07.2022 verkündet, dass es in den kommenden Monaten durch den neuen Video-Report die Möglichkeit geben wird, gezielt Videos in der GSC zu monitoren. Du erhältst eine Übersicht, auf welchen Seiten Google Videos identifiziert hat, welche davon überhaupt indexiert werden und welche eben nicht.

Das wird laut Google so aussehen:

Darunter gibt es dann eine Auflistung von Gründen, warum Dein(e) Video(s) nicht indexiert wurde(n). 💡

Zusätzlich wird das URL Inspection Tool der Google Search Console erweitert. Sofern Google ein Video erkennt, bekommst Du folgende Informationen für eine URL:

  • Detaillierte Informationen wie die URL des Videos oder die Thumbnail-URL

  • Ob Dein Video indexiert wurde oder nicht

  • Eine Auflistung der Issues, warum Dein Video von der Indexierung ausgeschlossen wurde

Achtung! Im Live-Test Deiner URL erhältst Du diese Informationen nicht. Hier gibt es nur einen Hinweis, ob Google ein Video auf Deiner Seite erkannt hat oder nicht. ⚠️

Der neue Report wird in den kommenden Monaten nach und nach hinzugefügt. Hast Du schon einen Anwendungsfall für den neuen Bericht? 🎥

Jolle Lahr-Eigen
Jolle Lahr-Eigen
Consultant
Full-Body-Contact mit Schrödingers Webpage: Wenn Google statt auf den Kopf mehr auf den Bauch hört

Apropos Indexierungs-Irritationen... Auch Kristina Azarenko berichtet unabhängig von tagesaktuellen Glitches, die Google ab und an passieren , von einem kuriosen Fall einer unerklärlicherweise nicht indexierten Seite .

Ein alter Blogpost von ihr, der in der Vergangenheit ganz ausgezeichnet bei Google gerankt hat, war plötzlich nicht mehr in der Google-Suche aufzufinden. Klar, die Rankings können abschmieren, aber gar kein Auffinden in den SERPs mehr? Das riecht nach De-Indexierung.

Ein Blick auf das Meta Tag im HTML Head verriet: "index, follow". Die Seite hätte also eigentlich indexiert sein müssen. Ob Kristina auch geprüft hat, ob die URL per robots.txt für Google gesperrt ist, ist nicht übermittelt, aber sie berichtet: "the website was healthy".

Doch dann. Der Blick vom Head herab auf den Body. Da war sie, die unsägliche Direktive, die aus dem arglosen Artikel "Schrödingers Seite" mit zwei konträren Zuständen gleichzeitig machte. Im Artikeltext selbst war das Robots Meta Tag in einem Code-Snippet zitiert - und zwar mit der Direktive "noindex, follow". Dass das bereits eine wilde Kombination ist, lassen wir an dieser Stelle außer Acht. Aber was war passiert?

Google hatte die Tag-Erwähnung im Text für bare Münze genommen und tatsächlich auf die Artikelseite angewendet, obwohl die Direktive nicht im HTML Head der Seite, sondern im Body stand. 😱😱 😱

Und das war kein einmaliger Ausrutscher. Kristina hat das Verhalten Googles anschließend mit einer Testseite stabil reproduziert. So sehr wir anständige Zitate mögen, wenn es um das Robots Meta Tag geht, solltest Du in Artikeln nicht zu genau zitieren - vor allem dann nicht, wenn Du beispielsweise in WordPress im Code-Editor statt im visuellen Editor unterwegs bist... 💡🥴

Florian Stelzner
Florian Stelzner
Geschäftsführender Gesellschafter
SEO en Detail mit Micro Intents

Das nenn ich mal wieder ein richtiges mega Lese-Brett von meinem Lieblings-SEO-DJ Olaf Kopp auf Searchengineland!

Immer wieder gern gebe ich SEO-Einsteigern den Tipp sich intensiv mit Suchintentionen und der daraus folgenden Gestaltung der SERPs intensiv auseinanderzusetzen. Bei vielen fällt da der Groschen und immer ist es eine Bereicherung für die Herangehensweise bei der Optimierung. Der großartige Einsteiger-Artikel von Sistrix zum Thema Suchintentionen wird von Olaf nochmal ein paar Detailstufen weiter heruntergebrochen und auf bestehende SERP-Specials in der OneBox wie Kalkulatoren , den Wetterberichten , Zeit-Berechnung , Übersetzungen oder Entitäten-Details angewendet.

Olaf unterscheidet 12 Micro Intents, die er unter die altbekannten 3 Intentions-Säulen stellt:

Informational:

  • Entertainment

  • Definition

  • Expansional

  • Enablement

  • Aggregation/Overview

Transactional:

  • Comparison/Orientation

  • Category/Selection

  • Service/Product

  • Brand

Navigational:

  • Support

  • Location

  • Website

Neben einer ausführlichen Erläuterung, was er unter diesen Micro Intents genau versteht, geht er noch einen Schritt weiter und ordnet diese Intents auch noch in die Customer Journey ein. Dabei gibt er Hilfestellung, welches Inhaltsformat für welchen Micro-Intent in der Journey das passendste ist.

Absolute Lese-Empfehlung mit dem Hinweis: Nimm Dir Zeit nicht nur zum Lesen, sondern auch für Deine eigenen Gedanken.

Welche Micro Intents passieren entlang der Customer Journey Deiner Kunden? Alle Themen abgedeckt? An jeder Stelle schon das richtige Inhaltsformat? Dann weißt Du ja jetzt, wie Du Deine Content-Strategie raketenmäßig vorantreiben kannst, oder?🚀

Matthias Pülz
Matthias Pülz
Trainee
Interner Duplicate Content? Interner Duplicate Content!

Ich habe heute einen Artikel geschrieben und dann festgestellt - das Thema gibt es schon als Newsletter-Artikel von Behrend. 🙊

Auch Du hast es sicher schon einmal erlebt: Du veröffentlichst einen neuen Artikel, der nach einer gefühlten Ewigkeit immer noch nicht richtig durchstarten will. Oder Du wunderst Dich, wieso eine bestimmte URL auf einmal nicht mehr so gut performt wie noch vor wenigen Wochen.

Du machst Dich auf die Spurensuche und schon nach kurzer Zeit hast du das Problem identifiziert: Interner Duplicate Content! Dabei hast Du extra aufgepasst, jetzt ist es aber doch (wieder einmal) passiert.

Absichtlich produziert natürlich niemand internen Duplicate Content, aber manchmal passiert es eben doch, dass zwei URLs der eigenen Seite für ein bestimmtes Keyword miteinander konkurrieren. Dann stellt sich natürlich die Frage, was man dagegen unternehmen kann und wie man das Problem mit den duplizierten Inhalten am besten löst.

Um Dich bei dem Thema zu unterstützen, habe ich hier vier Vorschläge für Dich, wie Du internen Duplicate Content idealerweise aus der Welt schaffst:

Canonical Tag:

Die erste Option besteht darin, ein sogenanntes Canonical Tag im Quellcode einer der Duplicate-URLs zu implementieren, wobei die weniger relevante Seite auf die wichtigere URL verweisen sollte. Damit wird Google gezeigt, bei welcher URL es sich um das Original handelt und welche lediglich eine Kopie davon darstellt und somit von der Suchmaschine vernachlässigt werden kann. Der entsprechende Code sieht dabei folgendermaßen aus:

Canonical Tags können übrigens auch domainübergreifend gesetzt werden.

Hauptkeyword einer URL ändern:

Eine weitere Möglichkeit im Kampf gegen Duplicate Content ist es, einfach das Hauptkeyword von einer der beiden Seiten zu ändern. Dieser Weg ist allerdings mit viel Aufwand verbunden und garantiert auch nicht, dass das Duplicate Content-Problem damit behoben ist.

Seiten zusammenführen:

Der nächste Weg, um Schwierigkeiten mit Duplicate Content zu eliminieren, besteht darin, die beiden konkurrierenden URLs einfach in einer Seite zusammenzuführen. Die alte URL kann dann mittels 301-Redirect auf die angepasste Seite weitergeleitet werden, während die zusammengeführte URL idealerweise von der Konsolidierung beider Inhalte profitiert.

Vorausschauender planen:

Der vermutlich logischste Punkt folgt zum Abschluss. Die Seitenhierarchie und Deine Inhalte sollten bereits im Voraus genau geplant werden, damit Duplicate Content gar nicht erst auftritt. So ein Ratschlag ist natürlich erst einmal wenig zufriedenstellend, wenn das Kind bereits in den Brunnen gefallen ist. Aber wie heißt es so schön: Aus Fehlern lernt man und auch wenn man duplizierte Inhalte vermutlich nie völlig vermeiden kann, so kann man sie mit der richtigen Planung zumindest auf ein Minimum reduzieren. Für einen besseren Überblick eignet sich intern etwa ein Contentplan, um bereits bestehende und noch kommende Themen stets im Blick behalten zu können.

Save the Date 🎊

Morgen, am 19. Juli, ist es mal wieder Zeit für das SEO Meetup Hamburg.

Um 19:00 startet der Live-Stream. Dieses Mal zu Gast: Stefan Vorwerk mit seinem Vortrag "1.000 Onlineshops im SEO-Review", den er auch schon auf der Campixx zum Besten gegeben hat.

Du hast Stefans Vortrag verpasst oder möchtest ihn nochmal sehen? Kein Problem hier gehts zur Anmeldung.

Vorherige Ausgabe Nächste Ausgabe
Fragen? Immer gerne fragen!
Wir sind für Dich da.
Schreib uns gern jederzeit
eine E-Mail an [email protected] oder
ruf uns einfach kurz an: +49 40 22868040

Bis bald,
Deine Wingmen
Anckelmannsplatz 1, 20537 Hamburg, Germany
Wingmen Online Marketing GmbH Logo