Wirklich wahres Wingmen SEO Wissen fĂŒr wache Webmarketer #98
Wingmen Online Marketing GmbH Logo
Johan von HĂŒlsen
Johan von HĂŒlsen
GeschĂ€ftsfĂŒhrender Gesellschafter
🍞 🍍🍖 Toast Hawaii fĂŒhlt sich immer ein wenig an wie aufgeben

Mit dieser Weisheit aus unserem Freitagabend-Call möchten wir Dich herzlich zu diesem Newsletter willkommen heißen.

GeĂ€ußert hat Behrend das, nachdem Saskia fragte, ob Schinken-Ananas als Kombination grundsĂ€tzlich zulĂ€ssig sei.

Die Mehrheit* meinte, dass die Kombination ginge und es letztlich egal sei, ob man das auf Toast, Croque oder Pizza packt. Neu fĂŒr uns, aber irgendwie passend: Der Toast Hawaii geht angeblich auf das amerikanische Grilled Spamwich zurĂŒck.

Mit diesem kontroversen Intro rein ins MenĂŒ der Woche:

  • Jolle hat als Gruß aus der KĂŒche eine kleine Tool-Vorstellung vorbereitet
  • Caro filetiert fieses Filter-Verhalten in der GSC zur For- Ă€h Vorspeise
  • Behrends Zwischengang kommt mit geheimnisvollen GA4 Dimensionen daher
  • Hannahs Hauptgang macht Dich zum Local-Hero im Lokal
  • Anita serviert zum Dessert eine Portion Durchblick fĂŒr den Coverage Report der GSC

Bon appétit!

* Dies ist keine offizielle Meinung der Wingmen Online Marketing GmbH, sondern Meinung des Autoren dieser Einleitung und einzelner Teammitglieder. Wingmen Online Marketing gibt prinzipiell keine kulinarischen Empfehlungen. Kulinarisches Oberhaupt der Firma ist ĂŒbrigens unser Chef Koch.

Was wir gelesen haben
Jolle Lahr-Eigen
Jolle Lahr-Eigen
Consultant
Answer The Public vs. AlsoAsked

FĂŒr die Themen- und Keywordrecherche gibt es jede Menge Tools, die sich fĂŒr ein erstes Brainstorming kostenlos nutzen lassen, um auf Themen fĂŒr Landingpages oder Blogposts zu kommen. Vielen fĂ€llt direkt die alte Animation von answerthepublic.com ein, bei der ein Typ "grimmiger SeebĂ€r" ungeduldig auf die Eingabe wartete, bevor er zig Permutationen Deiner Abfrage ausspuckt. Heute tritt einem ein putziger Roboter entgegen.

Mark Williams-Cook, Consultant bei den UK-Kollegen von Candour, hat mit alsoasked.com ein weiteres nĂŒtzliches Tool entwickelt. Was sind die Parallelen, was die Unterschiede zwischen beiden?

Answer The Public

Answer The Public greift auf Google-Suggest-Daten zu – also die VorschlĂ€ge, die einem Google direkt am Suchschlitz macht, noch wĂ€hrend man seine Suchanfrage eingibt.

Das Tool rÀt deshalb dazu, nur 1-2 Wörter einzugeben, also mit einem Seed-Keyword zu starten, um dann vor und nach dem Begriff alle möglichen Buchstabenkombinationen und Fragewörter zu ergÀnzen.

Was Seed-Keywords sind, und wie man sie recherchiert, hat ahrefs kĂŒrzlich hier aufgeschrieben. Der Output fĂŒr "mountainbike" fĂŒr Deutsch in Deutschland sieht zum Beispiel so aus:

AlsoAsked

AlsoAsked zieht dagegen den Inhalt aus den "Ähnliche Fragen"-Boxen – Englisch PAA fĂŒr "People Also Asked" aus den Suchergebnisseiten und sortiert sie nicht nur nach Fragewörtern, sondern nach SinnzusammenhĂ€ngen. Das Ergebnis fĂŒr die identische Abfrage:

Pickt man sich ein Longtail-Ergebnis mit mehreren Begriffen von Answer The Public raus – zum Beispiel "welche mountainbike marke ist zu empfehlen" und fragt es erneut bei Answer The Public ab, gibt es keine sinnvollen Ergebnisse mehr. Input und Output sind fast identisch.

Bei AlsoAsked sind dagegen auch die Longtail-Anfragen zu gebrauchen:

Wer ein kurzes Intro und die Hintergrundgeschichte zur Entstehung von AlsoAsked erfahren möchte, kann sich Episode 10 der zweiten Staffel des ohnehin empfehlenswerten Podcasts "Search with Candour" anhören. Auf Youtube erklÀrt Mark die Unterschiede zwischen AlsoAsked und Answer The Public kurz und knapp am Beispiel "bitcoin".

Noch Fragen?

Caro Wendt
Caro Wendt
Junior Consultant
Tricky tÀuschende GSC-Daten

GSC-Daten tÀuschen manchmal. Oder öfter als Du vielleicht denkst oder es Dir erhoffst. 

Ich bin auf ungleiche Daten gestoßen, die das ganze Nicht-in-die-Falle-treten-Spiel noch lustiger machen:

Die Daten werden nicht nur anders dargestellt je nach Anwendung des Filters im Performance-Bericht, sondern sie variieren auch je nach Art der angelegten Property (Domain, Subdomain oder Folder).

Aufgefallen ist mir das bei einem grĂ¶ĂŸeren Online-Shop, denn dies passiert wohl nur mit einer bestimmten Datenmenge. Ab einer bestimmten DomaingrĂ¶ĂŸe kannst Du also folgende Unterschiede in den Daten beobachten:

  • Daten in einer Domain-Property (beispiel.de) mit einem gesetzten Query-Filter, der Keywords von einer Subdomain einschließt → keine Daten werden angezeigt.

  • Daten in der URL-Property der Subdomain (https://beispielsubdomain.beipiel.de) mit gleichem Query-Filter → Es sind Daten zu sehen, wenn auch nur wenige.

  • Wenn dann bei der Domain-Property zusĂ€tzlich zum Query-Filter der Page-Filter "beispielsubdomain." gesetzt wird, werden doch ein paar Daten angezeigt – aber immer noch nicht die gleichen wie in der Property fĂŒr die Subdomain.

→ Google spart also ab einer bestimmten DatengrĂ¶ĂŸe bei der Darstellung in den ĂŒbergreifenden Domain-Properties und zeigt die Daten nur in den spezifischen Properties. Das gilt nicht nur fĂŒr Subdomains, sondern auch fĂŒr Folder-Properties: Auch dort bekommt man mehr Daten angezeigt als beim Filtern auf einer darĂŒber liegenden Property.

→ Du solltest Dich bei der Anwendung eines Filters im Performance-Bericht also immer fragen, ob sich die Filterung auf einen bestimmten Seitenbereich Deiner Domain belĂ€uft und ob Du noch genauere Daten in spezifischen GSC-Properties statt der Domain-Property erhalten könntest.

Es kann also Vorteile haben, bei grĂ¶ĂŸeren Domains mehr Properties in der GSC als nur fĂŒr die Domain einzurichten, sprich URL-Prefix-Properties fĂŒr relevante Folder und Subdomains.

Noch mehr fiese GSC-Daten-Fallen, in die Du besser nicht reintrittst, hat Behrend Dir in einem Wissensartikel zur Google Search Console mit Beispielen dargelegt.

Behrend von HĂŒlsen
Behrend von HĂŒlsen
Consultant
Die geheimen Dimensionen von GA4 đŸ‘»

Universal Analytics wird bald in den Ruhestand geschickt. WĂ€hrenddessen wurde GA4 in den letzten Wochen durch einige neue Features erweitert. Somit erlangt das Produkt wenigstens fĂŒr einige Webanalyse-Fragestellungen einen gewissen Grad an Marktreife. Und das schon 1,5 Jahre nach Ende der Beta-Phase.

Wer sein GA4-Setup bereits live gestellt hat, ist bislang noch ernĂŒchtert. In vielen FĂ€llen hilft der Zugriff auf die Rohdaten, aber dafĂŒr muss man erstmal die Zeit und das Know-How haben.

Charles Farina erklĂ€rt, dass die ein oder andere vermisste Metrik oder Dimension eigentlich schon vorhanden ist und verweist auf den Dimensions & Metrics Explorer (Achtung: aus GrĂŒnden muss man fĂŒr den GA4 Dimensions & Metrics Explorer in Google eingeloggt sein ÂŻ\_(ツ)_/ÂŻ). Viele davon lassen sich bislang nur per URL-Manipulation im Frontend nutzen. Hier erklĂ€rt am Beispiel der Landingpage, die allerdings glĂŒcklicherweise inzwischen auch im Frontend direkt erreichbar ist.

Ein Zombie, der nun auch wieder aufgetaucht ist: Bounce Rate. Sie stimmt in der Definition nicht mit der Universal Analytics Bounce Rate ĂŒberein (also Sitzungen, die nur einen einzelnen Pageview hatten), sondern bildet das GegenstĂŒck zur Engagement Rate (einer etwas komplexer definierten Metrik aus GA4). Letzteres ist in Zeiten von Consent Management aber meiner Meinung nach die sinnvollere Metrik, da die echten Bouncer schon vor dem Consent verschwunden sind. Also lass den Zombie ruhig in seinem Grab und gewöhn Dich an die Engagement Rate.

So langsam wird GA4 benutzbarer, auch wenn die Schwelle sicherlich höher bleibt als fĂŒr UA. Was fehlt Dir noch an GA4 um gut mit ihr arbeiten zu können? Oder hast Du GA4 inzwischen aufgegeben und Dich fĂŒr eine andere Webanalyse entschieden?

Hannah Rohde
Hannah Rohde
Junior Consultant
How to become a Local SEO Superhero 🩾 – ein SMX RĂŒckblick mit Greg Gifford

Greg Gifford hat mit seinen PrĂ€sentationen zu Local SEO und Google Business Profile sehr viel Aufsehen erregt bei der SMX – nicht nur wegen der Informationen, sondern auch wegen der außergewöhnlichen Slides. Diese waren geprĂ€gt von seiner Liebe zum Film – so hatte jede Slide ein Bild eines Superheldenfilmes im Hintergrund. Wie auch Du ein Local Superhelden wirst mit Deiner Seite, erfĂ€hrst Du jetzt 🚀

Greg sagt, dass Corona die Welt verĂ€ndert hat – das ist uns nicht neu – aber er erklĂ€rt dann, was sich daraus fĂŒr Local SEO ergibt. Die wichtigsten Punkte habe ich einmal fĂŒr Dich zusammengefasst:

🔎 Das Nutzerverhalten hat sich verĂ€ndert!

  • Suchanfragen mit einer lokalen Suchintention sind so hĂ€ufig wie noch nie

  • Click & Collect erfreut sich großer Beliebtheit und Kunden geben an, dieses auch nach der Pandemie nutzen zu wollen 

  • Die Lieferung in den Shop ist fĂŒr 50% der Nutzer ein Entscheidungsmerkmal (amerikanische Studie)

→ Das ergibt meiner Meinung nach durchaus Sinn und ist mir auch wichtig, denn 

  • Aus Kundensicht ist es von Vorteil, wenn ich dann mein bestelltes Kleid direkt im Laden anprobieren und bei Nichtgefallen direkt dort wieder abgeben kann, anstatt mich noch bei der Post anstellen zu mĂŒssen 

  • Aus VerkĂ€ufersicht gesehen ergibt es Sinn, denn wahrscheinlich suche ich mir zum neuen Kleid (wenn es mir gefĂ€llt und passt) auch noch eine passende Jacke, eine Handtasche, ein Tuch,... naja was man eben so "braucht" und zwar direkt vor Ort im GeschĂ€ft

  • 56% der Nutzer vertrauen auf Kundenbewertungen. Wenn Du also noch keine Bewertungen in Deinem Shop hast, fang an zu sammeln!

  • Die meisten lokalen Suchen werden auf dem Smartphone getĂ€tigt. Also checke Deine Seite immer, ob diese fĂŒr Mobile optimiert ist. Das ist uns natĂŒrlich nicht neu, aber immer wieder gut, zu erwĂ€hnen ;)

Aber wer sollte denn eigentlich Local SEO machen? 

Greg sagt: Mindestens jeder, der direkten Kundenkontakt hat!

Und was sind die wichtigsten Punkte, die Du beachten solltest? Content, Links, Bewertungen und Dein Google Business Profile (besser bekannt als Google My Business).

📝 Content:

  • Achte darauf, dass Dein Content lokal bezogen ist. ErgĂ€nze Deine Stadt und das Keyword im Title, in der H1-Überschrift, im Text, in der URL, in den Alt-Attributen der Bilder, in der Meta Description

  • Wenn Du noch kein Blog hast (und KapazitĂ€ten dafĂŒr), dann erstelle eins, sagt Greg

  • FĂŒlle Dein Blog um lokalen Content. Das können Themen sein wie "Die tollsten Parks in Hamburg mit Hund" oder "Spazieren an der Alster – das Must Have fĂŒr Dein Outfit"

🔗 Links:

Vergiss alles, was Du ĂŒber Linkbuilding weist, sagt Greg. 

  • Links von kleinen lokalen Seiten sind hier Gold wert! 

  • Links von kleinen lokalen Seiten können nur schwierig gefaked werden

  • follow / nofollow spielt keine Rolle

⭐ Bewertungen:

  • Bewertungen beeinflussen nicht nur den Nutzer, sie werden auch im Local Algorithmus berĂŒcksichtigt

  • Erstelle einen Review-Prozess und nutze die Chance, Deine Kunden zu animieren, Deine Produkte und Services zu bewerten

  • Erstelle eine Seite fĂŒr die Kundenbewertungen

  • Beantworte ALLE Bewertungen

  • Achte bei der Beantwortung von negativen Bewertungen darauf, dass Du nicht nur den möglicherweise schlecht gelaunten Troll ansprichst, sondern mit Deiner Antwort alle möglichen Nutzer ansprichst, denn die lesen sich Deine Antwort auch durch! 

  • Mach Dir keine Sorgen, wenn Du keine 5 Sterne im Durchschnitt hast. Niemand ist perfekt und das wissen auch Google und Deine Nutzer

đŸ—ș Google Business Profile:

  • Nutze Deinen echten Firmennamen. Erweitere ihn nicht und versuche nicht, Keywords zu ergĂ€nzen! 

  • Gebe alle Deine relevanten Kategorien an

  • WĂ€hle Deine Hauptkategorie sinnvoll 

  • ErgĂ€nze Dein Profil um Bilder und lade hier regelmĂ€ĂŸig aktuelle Bilder hoch 

  • Beachte die Fragen & Antworten. Achtung: diese kann JEDER Nutzer editieren 

  • Erstelle eigene FAQs

  • Nutze Google Posts

  • Nutze Paid Ads → Denke hierbei auch an Microsoft und Bing Ads (25% der Suchen in Deutschland kommen darĂŒber). Und mit Ads ĂŒberholst Du Deine Mitbewerber, die nĂ€her am Nutzer dran sind und erscheinst trotzdem ganz oben in der Liste!

Und? Nutzt Du schon die wichtigsten Hebel, um im Local SEO erfolgreich mitzuspielen oder hast Du Dir jetzt eine kleine To Do Liste nebenher angelegt?

FunFact – ich bin ĂŒbrigens LocalGuide Level 5 mit ca. 500 Bewertungen – und Du?

Anita Böhm
Anita Böhm
Consultant
Mehr Durchblick im GSC Coverage Report

Vor ein paar Wochen hatte ich bereits ĂŒber den Status "Crawled - currently not indexed" im Coverage Report der Google Search Console geschrieben.

Eine super ErgĂ€nzung dazu ist dieser Artikel – ebenfalls  von Tomek Rudzki von Onely – zu sĂ€mtlichen mal mehr mal weniger hilfreichen Status, die der Index Coverage Report so ausspuckt. Mir hat er tatsĂ€chlich dabei sehr geholfen, die Meldungen noch einmal strukturiert zu verstehen.

Dass die Google-Doku leider nicht immer aufschlussreich ist (vor allem, wenn man eine ĂŒbersetzte Variante wie die deutsche nutzt) wissen wir ja. Tomek beleuchtet daher auch, was mögliche Auslöser und Lösungen sind. Teilweise gibt es ein Issue, das in verschiedenen Kategorien aufschlagen kann.

GrundsÀtzlich lassen sich die Status in folgende Gruppen clustern:

  • "Submitted" URLs, also die URLs, die via XML-Sitemap von Dir mehr oder weniger bewusst und beabsichtigt an Google ĂŒbermittelt wurden

  • Crawled oder Discovered – currently not indexed, also alle URLs, die Google zwar irgendwie kennt, aber aus GrĂŒnden nicht frisst

  • Duplicate Content umfasst unterschiedlich behandelte FĂ€lle nicht uniquer Inhalte

  • Bitte nicht indexieren, also URLs, die wir mit harten (noindex) oder soften (canonical) Verweisen versehen, um Google davon abzuhalten, sie in den Index zu packen

  • Kann nicht gecrawlt werden, also alles, was aufgrund der robots.txt oder von 200 abweichenden Status Codes nicht crawlbar ist

  • Soft 404, also URLs, deren Inhalte auf Google so wirken, als ob diese Seite wohl eher einen Status Code 404 haben sollte

UnerwĂ€hnt bleiben die URLs, die indexiert sind, aber nicht ĂŒber die XML-Sitemap ĂŒbermittelt werden. Die solltest Du aber auch im Auge haben. Daher habe ich sie auch in die kleine Übersicht, die ich inspiriert von Tomeks Artikel gebastelt habe, aufgenommen.

Eigentlich reicht das schon fĂŒr den Überblick. Wenn Du tiefer ins Detail einsteigen magst, dann lies einfach weiter. Und wenn das noch nicht tief genug ging, dann wirf am besten noch einen Blick in den Artikel von Tomek, der oben verlinkt ist!

"Submitted" URLs

Einen Aspekt, den Tomek herausstellt, sind jene Sub-Reports, die "Submitted" URLs beinhalten. Also solche URLs, die  in einer XML-Sitemap gelistet werden. Das sind die URLs, die wir – im Idealfall beabsichtigt und aus guten GrĂŒnden – an Google und andere Suchmaschinen ĂŒbermitteln wollen, weil sie uns wichtig sind.

If your page reports a status with the word "Submitted", you have two options: resolve the issue or remove the URL from your sitemap.

Denn je nachdem, wie groß Deine Seite ist, musst Du möglicherweise mit dem Crawl Budget haushalten. Und es wĂ€re schade, Google mittels XML-Sitemap auf URLs zu schicken, die da vielleicht mangels Relevanz doch nicht reingehören.

Crawled oder Discovered – currently not indexed

Was genau hinter dem Status "Crawled – currently not indexed" steckt, hatten wir ja bereits Anfang MĂ€rz thematisiert.

Ähnlich dazu gibt es den Status "Discovered – currently not indexed". Der Effekt ist derselbe: Die betroffenen URLs sind nicht indexiert. Die Auslöser unterscheiden sich jedoch. WĂ€hrend bei den "Crawled" URLs Google schon mal vorbeigeschaut hat, ist dies bei den "Discovered" URLs nicht der Fall.

Wenn Google sich also die Seite angeschaut hat, sich aber dazu entscheidet, sie nicht zu indexieren, kann das mit der QualitÀt der Inhalte oder Seitenstruktur zusammenhÀngen. Details hatte Tomek ja bereits in seinem Guide beschrieben.

Wenn Google sich die Seite allerdings noch nicht angeschaut hat, hat das andere GrĂŒnde. Zum Beispiel das Crawl Budget oder eine unzureichende interne Verlinkung.

Duplicate Content

Auch fĂŒr diesen Fall gibt es 2 Status:

  • Duplicate without user-selected canonical

  • Duplicate, Google chose different canonical than user

Hier packt die URL es jeweils nicht in den Index, da es noch weitere Varianten gibt. Einmal ohne dass es Canonicals gibt, einmal obwohl die Seite als Original referenziert wurde.

Das Canonical ist ja im Grunde nur ein Hinweis, fĂŒr Google aber nicht verbindlich. Wenn sich die Suchmaschine also fĂŒr eine andere Variante entscheidet, dann liegt das oft an mehrdeutigen Signalen – Canonical sagt so, interne Verlinkung und XML-Sitemap sagen so.

Umso spannender, wenn es vermeintliche Duplikate ohne Canonical gibt. Da hat man dann wohl grob was ĂŒbersehen oder vergessen.

So oder so: Im Best Case kommst Du gar nicht erst in Verlegenheit, da Deine Struktur so sauber und konsistent ist, dass es gar nicht erst zu Duplicate Content kommt.

Bitte nicht indexieren

Die Status "Excluded by 'noindex' tag" und "Alternate page with proper canonical tag" beziehen sich auf alles, was intentional nicht indexiert wird. Daher gibt es hier auch nicht viel zu tun, außer sicherzustellen, dass hier wirklich nur URLs dabei sind, die dabei sein sollen.

Im Idealfall sollte hier keine enorme Masse anfallen, da der ĂŒberwiegende Teil der URLs ja fĂŒr Google und den Index relevant sein sollten. Denn je weniger sinnlose bzw. nicht indexierbare URLs Google crawlen muss, umso mehr Zeit und Aufmerksamkeit kann auf relevante Inhalte entfallen.

Kann nicht gecrawlt werden

Es gibt viele GrĂŒnde, weswegen Google eine URL nicht crawlen kann. Zum einen kann es simpel an der robots.txt liegen, die den Zugriff verwehrt. Oder daran, dass die betroffene URL einen anderen Status Code als 200 hat, sei es durch Weiterleitungen, 401, 403, 404 oder andere 4xx-Fehler oder einen 5xx-Server-Error.

Diese ganzen Probleme werden sowohl fĂŒr URLs allgemein gelistet, als auch fĂŒr solche, die ĂŒber die XML-Sitemap eingereicht werden.

Dass es Weiterleitungen gibt, wirst Du nicht verhindern können. Google folgt ihnen im Normalfall auch und wird die Zielseite indexieren. Du musst nur sicherstellen, dass Du diese URLs möglichst aus Deiner internen Verlinkung und Deinen XML-Sitemaps rauswirfst.

Soft 404

Um Inhalte aufzuspĂŒren, die vielleicht eigentlich eher einen Status Code 404 verdient hĂ€tten, hat Google seinen Soft 404 Detektor im Einsatz. Der ist aber nicht unfehlbar und mĂ€kelt gerne auch mal Dinge an, die eigentlich komplett in Ordnung sind. Ein Klassiker: Der Blogpost mit den 397 lustigsten 404-Seiten ever, der dann aufgrund des Wordings so wirkt, als ob es sich um eine 404-Seite handelt. Schon eher ein passendes Problem: Weiterleitungen auf Zielseiten, die eigentlich nicht relevant sind oder Seiten, die mit dem Rendering Probleme haben.

Vorherige AusgabeNĂ€chste Ausgabe
 
Fragen? Immer gerne fragen!
Wir sind fĂŒr Dich da.
Schreib uns gern jederzeit
eine E-Mail an kontakt@wngmn.de oder
ruf uns einfach kurz an: +49 40 22868040

Bis bald,
Deine Wingmen
Anckelmannsplatz 1, 20537 Hamburg, Germany
Wingmen Online Marketing GmbH Logo