Wirklich wahres Wingmen SEO Wissen für wache Webmarketer #197
Wingmen Online Marketing GmbH Logo
Nadine Klöschen
Nadine Klöschen
Consultant
Is there anybody out there?

Ist hier jemand? Oder bist Du auch, wie gefühlt 90% der deutschen SEOs, in München bei der diesjährigen SMX unterwegs? Falls ja, schau auf jeden Fall mal an unserem Wingmen-Stand vorbei. Da wird auch in diesem Jahr wieder kräftig unser Spiel "Och menno! GUUHGL" gezockt. Das Spiel darfst Du Dir im Anschluss dann gern mit nach Hause nehmen.*

Auch wenn hier gefühlt die Hälfte der Wingmenschen ausgeflogen ist, bedeutet das natürlich nicht, dass wir nicht auch in dieser Woche wieder jede Menge tolle Artikel für Dich parat haben. 

In dieser Ausgabe: 

  • zeigt Johan Dir einen Trick zur Filterung von Brand Traffic in der GSC

  • hat Anita die neuesten Infos zu den rollenden Core und Spam Updates parat

  • sinniert Philipp über Programmatic SEO

  • serviert Matt Low Hanging Fruit

  • erklärt Behrend, wie Du in Maps besser rankst

Viel Spaß beim Lesen!

Deine Wingmenschen

* P.S. Falls Du auch so ein Spiel haben möchtest und nicht in München bist, kannst Du es hier bestellen. 😉

Was wir gelesen haben
Johan von Hülsen
Johan von Hülsen
Geschäftsführender Gesellschafter
Mein kleiner Hack für Brand-Traffic-Filterung in der GSC

Brand-Traffic ist kein SEO-Erfolg. Also eigentlich unter Umständen schon, aber das ist eine andere Geschichte. Auf jeden Fall wollen wir Brand-Traffic filtern. Denn gleich ausweisen wie Non-Brand dürfen wir den Traffic auf keinen Fall.

Egal ob wir das in der GSC, in BigQuery oder auf exportierten Daten in Python oder Knime machen: RegEx ist unser Freund. (Levenshtein Distanzen können auch gute Kumpel sein. Aber wirklich verlassen können wir uns nur auf reguläre Ausdrücke.)

Also her mit dem Hack (und der Erklärung):

[brand]{4,6}

Durch die eckigen Klammern [] erzeugen wir eine Zeichenklasse, in der die Buchstaben in beliebiger Reihenfolge kommen können. Durch die geschweiften Klammern {} geben wir an, wie viele Zeichen vorkommen dürfen. Im Beispiel mindestens 4, maximal 6.

Dadurch matchen wir alle Suchanfragen, die "brand" enthalten. Aber auch "branda", "barnd" und ähnliche Buchstabendreher. Die Anzahl der Vertipper bei großen Brands ist erstaunlich.

Wollen wir Produkte mit dazu nehmen, dann wird daraus:

[brand]{4,6}|Produkt1|Produkt2

Oft haben Produkte Ziffern, die wir aggregieren können:

[brand]{4,6}|Produkt[0-9]+|superprodukt[0-9]+

Wenn wir dann noch mal berücksichtigen, dass Menschen sich nicht an die Konvention halten und "Produkt123", "Produkt 123" oder "Produkt- 123" schreiben, dann haben wir:

[brand]{4,6}|Produkt[- ]*[0-9]+|superprodukt[- ]*[0-9]+

Natürlich wollen wir uns das eigentlich noch ein wenig einfacher strukturieren:

[brand]{4,6}|(Produkt|superprodukt)[- ]*[0-9]+

In vielen Fällen können wir damit innerhalb von Minuten einen 80/20 Brandfilter bauen.

Um die Qualität zu evaluieren, führen wir den Filter aus:

Macht er im Test (beispielsweise mit regex101.com) das, was wir wollen?

Sind alle angezeigten Begriffe wirklich Brand-Begriffe? Wie viele False Positives haben wir in den ersten 100/200 Keywords?

Danach schließen wir die RegEx aus. Wie viele Brand-Begriffe finden wir in den ersten 200-500 Keywords, die wir eventuell noch hinzufügen wollen?

Zur Sicherheit prüfen wir noch mal in Verbindung mit der Startseite (die ja den meisten Brand-Traffic bekommt) in beide Richtungen.

Danach müssen wir uns nur noch überlegen, wie groß der Impact der anonymized Queries ist (falls wir das nicht auf Basis von BigQuery Daten machen):

Gesamt-Clicks 

- Summe Clicks mit Regex 

- Summe Clicks mit Ausschluss der Regex 

= Dunkelfeld durch anonymized Queries

Ob der Longtail eher Brand oder eher Non-Brand-Traffic ist, ist einzelfallabhängig. Aber wir können nicht einfach die Annahme treffen, dass der Longtail sich verhält, wie der Shorthead.

Überraschend habe ich frische Likes auf einen alten Kommentar auf LinkedIn bekommen. Daher habe ich den Kommentar noch mal für Dich aufgebohrt und bin mir sicher, dass er Dir beim Filtern helfen wird.

Anita Böhm
Anita Böhm
Consultant
Updates im Doppelpack

Seit letztem Dienstag laufen die March 24 Core und Spam Updates von Google. Am 05. März kam fast zeitgleich der Hinweis und damit verbunden eine Menge Infos. Erste Entwicklungen zeichnen sich bereits ab. Bevor ich aber auf die Details eingehe:

"There's nothing new or special that creators need to do for this update as long as they've been making satisfying content meant for people."

Das schreibt Google im Blogpost "What web creators should know about our March 2024 core update and new spam policies" und betont: Wenn Du gute Inhalte für Menschen machst, dann gibt es für Dich keine Notwendigkeit etwas zu unternehmen. Also: Kein Grund zur Panik!

Das Core Update zielt darauf ab, die Qualität der Google Suche zu verbessern. Diese wurde zuletzt immer wieder kritisiert. (Philipp hatte das in einer der letzten Ausgaben im Rahmen seiner Google Under Pressure Serie thematisiert.) Daher sollen clickbaity Inhalte zugunsten von hilfreichen Inhalten weichen.

Hand in Hand gehend mit dem Core Update gibt es ein Spam Update inklusive einer Reihe neuer Spam Policies. Diese zielen auf Methoden ab, die einen negativen Impact auf die Google Suche haben.

Core Update

Interessante Hinweise, Erkenntnisse und Entwicklungen aus dem Blogpost:

  • das March 2024 Core Update ist im Vergleich zu anderen Core Updates komplexer und soll laut Google das Erkennen der "Helpfulness" von Inhalten auf ein neues Level heben

  • es gibt kein einzelnes System, welches der Identifikation hilfreicher Inhalte dient, stattdessen greifen die Core Ranking Systems auf eine Vielzahl von Signalen und Ansätzen zurück

  • es wird bis zu einem Monat dauern, bis das Update durch ist, und Google prophezeit, dass es größere Ranking-Veränderungen geben wird als sonst bei Core Updates üblich

In der begleitenden "Helpful content and Google Search results FAQ" erfahren wir außerdem:

  • die Core Ranking Systems zielen primär auf einzelne individuelle Seiten ab, um deren "Helpfulness" zu verstehen

  • darüber hinaus gibt es auch einige seitenweite Signale, die mit einfließen

  • auch wenn die Core Ranking Systems primär auf URL-Ebene arbeiten, können hohe Anteile an nicht hilfreichen Inhalten seitenweite Auswirkungen haben und die Leistung hilfreicher Inhalte negativ beeinflussen

  • diese Bremse kann durch die Entfernung entsprechender Inhalte gelöst werden

  • wann sich eine solche positive Wirkung zeigt, ist schwer zu sagen, da es an vielen Stellen ständig Veränderungen gibt

Falls Du nochmal tiefer reinlesen magst: "Google Search's core updates and your website"

Falls Du Deine Inhalte nochmal im Hinblick auf "Helpfulness" evaluieren möchtest: "Creating helpful, reliable, people-first content"

Natürlich haben sämtliche SEOs ein Auge auf das Core Update und auch schon einiges darüber geschrieben. Lily Ray zum Beispiel. Ausgerechnet The Verge (die ja vor nicht allzu langer Zeit ganz schön ausgeteilt haben gegen die SEO-Welt) hat einen aus ihrer Sicht sehr hilfreichen Artikel zu beiden Updates am Start.

"Ironically, the Verge (of all publications, lolz) has one of the most helpful articles about Google's upcoming core/spam updates, because it contains additional details by Pandu Nayak, VP of Search at Google."

In der Sistrix Movers und Shakers Liste vom 04. auf den 08. März kann man auch die ein oder andere interessante Entwicklung entdecken.

Spam Update

Interessante Hinweise, Erkenntnisse und Entwicklungen aus dem Blogpost:

  • es gibt nicht nur das März 2024 Spam Update, sondern auch drei neue Spam Policies: Expired Domain Abuse, Scaled Content Abuse und Site Reputation Abuse

  • wenn Du diese und weitere Praktiken anwendest, musst Du damit rechnen, dass Deine Website schlechter rankt oder gar nicht in den Suchergebnissen auftaucht

Die "Spam policies for Google web search" wurden entsprechend ergänzt. Hilfreich finde ich hier, dass jeweils auch ein paar Beispiele genannt werden.

Expired Domain Abuse: Wenn Du eine veraltete Domain kaufst und diese dann benutzt, um Rankings zu erzielen, ohne wirklich sinnvolle Inhalte bereitzustellen, machst Du Dich bei Google unbeliebt. (Doku)

Scaled Content Abuse: Ob Du Deine Inhalte mit Hilfe von AI schreibst oder nicht, ist Google egal. Aber wenn Du Inhalte im großen Stil erstellst, um Rankings zu bekommen, obwohl Deine Inhalte nicht hilfreich sind, hört der Spaß auf. (Doku)

Site Reputation Abuse: Wenn Du auf einer Subdomain Third Party Inhalte bereitstellst, die nicht wirklich etwas mit Deinem Hauptinhalt zu tun haben oder mit denen Du nicht wirklich was zu tun hast, könnte es bald auch Probleme geben. Insbesondere, wenn es für Nutzer*innen keinen Mehrwert hat. (Doku)

Zum Thema Site Reputation Abuse ist noch zu sagen: Es sind nicht automatisch alle Subdomains, auf denen Inhalte von Partnern gehostet werden, betroffen. Aber Du solltest Dir, wenn es das auf Deiner Website gibt, die Sache wirklich genau anschauen, basierend auf den Hinweisen, die es im Blogpost und der Doku gibt.

Für den Fall, dass Du Dich hier nicht konform verhältst, ist die Lösung simpel: Der Inhalt muss von der Suche ausgeschlossen werden. Und weil das eine neue Policy ist, deren Umsetzung Zeit kosten kann, hast Du bis zum 05. Mai Zeit.

Seit dem Start des März 2024 Spam Updates gibt es in den USA wohl ein wahres Feuerwerk an Manual Actions in der Google Search Console. Barry Schwartz berichtet darüber in seinem Beitrag "Google Unleashes Manual Actions Galore After Search Spam Policy Updates" und Lily Ray teilt passend dazu für Betroffene ein paar Tipps via LinkedIn. In Deutschland ist das Feuerwerk derzeit (noch?) nicht zu sehen.

Und nun?

Man könnte noch einiges mehr zu den beiden Updates schreiben. Vielleicht in einer der kommenden Ausgaben des Newsletters? Hier machen wir erstmal einen Punkt.

Was ich Dir zusammenfassend mit auf den Weg geben möchte: Keine Panik!

Sollte Dich tatsächlich das eine oder andere Update erwischen, gibt es sehr klare Vorgehensweisen, die zu befolgen sind. Also im Fall der Fälle kühlen Kopf bewahren und das Protokoll befolgen.

Ohne Grund hektisch werden und womöglich sogar blinden Aktionismus betreiben, ist nicht notwendig und auch nicht sinnvoll. Also: Einatmen. Ausatmen. Schauen, wo Du stehst und von da aus die nächsten Schritte einleiten, sollten sie überhaupt erforderlich sein.

Außerdem nicht vergessen: Das Core Update soll insgesamt etwa vier Wochen benötigen, das Spam Update wird in etwa einer Woche abgeschlossen sein. Bis dahin kann noch einiges passieren. Die Auswirkungen können also zum derzeitigen Zeitpunkt noch gar nicht abschließend bewertet werden.

 Philipp Götza
Philipp Götza
Junior Consultant
Programmatic SEO: Alles Unkraut oder Wachstumsbeschleuniger? 🌻

Wenn Du unsere Slack Channels sehen könntest, wüsstest Du, dass ich mich zu Programmatic SEO hingezogen fühle. Gleichzeitig argumentiere ich auch oft dafür, dass im Internet viel zu viel Schrott rumfliegt. Ahrefs hat mal gesagt, dass es leicht über 90% aller Inhalte sind, die keinen Klick aus der organischen Suche bekommen. Diese Statistik wurde kürzlich aktualisiert:

"96.55% of Content Gets No Traffic From Google"

Link zur Studie

Also nochmal 6% mehr, was mich nicht wundert.

Die ganze Zeit heißt es, dass Google schlechter geworden sei. Was ist aber, wenn die durchschnittliche Qualität der Inhalte schlechter geworden ist? Diese Gedanken schießen mir seit Wochen durch den Kopf und habe ich in Google Under Pressure und auf LinkedIn bereits abgefrühstückt.

Jetzt schallern auch noch die Google Updates – passend zum März und zur SMX – rein. Die Google Updates hat Anita diese Woche auf dem Teller liegen. In Zusammenhang mit Programmatic SEO gehen bei Updates immer die Lauschmuscheln auf, denn John Mueller hat es letztes Jahr auch schon deutlich gesagt:

"I love fire, but also programmatic SEO is often a fancy banner for spam."

Am Ende geht es wie immer um Qualität und wie hilfreich die Inhalte für Nutzer und Nutzerinnen sind. Auch wenn die Anzahl der Spam-Beispiele zahlreicher ist, gibt es auch einige sehr positive Beispiele, wie z. B. Webflow und Zapier – oder Greg

Wer oder was ist Greg?

Von Greg hatte ich bis vorletzte Woche noch nichts gehört. Der CEO, Alex Ross, war im Optimize Podcast zu Gast. Die 60 Minuten habe ich mir reingezogen und die spannendsten Insights für Dich gesammelt.

Gregs Produkt ist eine App, mit der Du Pflanzen identifizieren kannst und direkt die passenden Pflegeinformationen bekommst.

Da stecken einige Pferdestärken unter der Website-Motorhaube. In Ahrefs können wir vor allem zum Jahresende eine starke Explosion bei den organischen Seiten und dem organischen Traffic erkennen:

Ein Chart aus ahrefs für greg.app, dass den organischen Traffic und die organischen Seiten darstellt. Ende 2023 erfolgt hier ein rapider Anstieg auf mehr als 100.000 organische Seiten und über 340.000 organische Aufrufe.

Es schien in 2023 so, als habe man ein lokales Maximum erreicht, das inzwischen durchbrochen wurde.

Auch der Sichtbarkeitsindex von Sistrix in den USA offenbart diese Entwicklung:

Ein Chart aus Sistrix, dass den Sichtbarkeitsindex von greg.app zeigt. Dieser ist Ende 2023 bei einem Wert von 0,13 und ist seitdem rapide auf über 0,20 angestiegen.

Was steckt hinter der SEO-Strategie von Greg?

Es ist ein KI-gestützter, programmatischer Ansatz. Im Podcast spricht Alex von zwei Etappen, die sie durchlaufen haben.

1. Der Auftakt

Basierend auf ihrer eigenen Datenbank haben sie für jeden Pflanzentyp eine Landing Page angelegt, die Informationen zu Bewässerung, Sonnenlicht und Düngung bereitstellt. Das sieht ungefähr so aus:

Ein Screenshot von greg.app. Zu sehen ist eine Seite die in der Navigation unter Plant Care liegt und die Monstera Pflanze thematisiert. Neben Basisinformationen und einem Rating aus Community-Bewertungen kann man im unteren Bereich auch "How to care for Monstera" erkennen inklusive einem Jump Link zur Zusammenfassung.

Zusätzlich wird jede Seite durch UGC aufgewertet, beispielsweise in Form von

  • den am häufigsten ausgewählten Pflanzeneigenschaften,

  • populären Community-Fragen und

  • Reviews.

Der Ansatz mit den eingebundenen Community-Fragen erinnert stark an Quora.

Anstatt die Inhalte vollständig per KI schreiben zu lassen – etwas, das meiner Erfahrung selten gut funktioniert – erfolgt die Erstellung in Etappen auf Basis einer 10.000 Zeilen langen Prompt Engine:

"And we wrote a very large, I'm talking 10,000 lines of code, prompt engine for reliably and with high quality writing, very specific, very well-formed sections of content for each type of topic, whether it's toxicity or leads."

Persönlich ist mir häufig aufgefallen, dass ChatGPT & Co. Schwierigkeiten haben, den Fokus zu behalten und Leitplanken brauchen. Auch Alex beschreibt das im Podcast:

"And so very quickly we learned that we have to narrow it down so that it's almost an assembly line where the LLM is focusing on this part and then on that part and then on that part. [...]

You can't, there's something going on with the attention span of these LLMs, where when you give it too big of a task, its brain gets scrambled and it loses attention."

Basis für die zweite Etappe war eine intensive Keyword-Recherche.

2. Die Expansion

Neben den Themen Bewässerung, Sonnenlicht und Düngung gibt es viele weitere Themen, zu denen aktiv in Zusammenhang mit Pflanzen gesucht wird, wie z. B.

  • Krankheiten,

  • Giftigkeit und

  • braune Blätter.

In der Recherche hat das Team von Greg 26 Themen identifiziert, die dann mit gezielten Seiten pro Pflanzenart und in unterschiedlichen Kombinationen abgedeckt wurden. Auch hier eine Parallele zu Reddit & Quora: Anstatt unfassbar langen Content lesen zu müssen, weil alles auf einer holistischen Seite untergebracht ist, bekommt man sehr schnell die gesuchte Antwort.

Mittlerweile haben sie über 100.000 Seiten angelegt und einen Großteil davon in weniger als 3 Monaten.

Was macht Greg besonders gut?

Alles wirkt wie aus einem Guss und es ist das Gegenteil von einem "get rich quick" Schema. So eine Website erstellt man nicht, wenn man nur die schnelle Mark riecht und eigentlich keine Ahnung hat.

Eine der wichtigsten Komponenten in der SEO ist die interne Verlinkung. Vor allem deswegen, weil wir sie 100% kontrollieren können, im Gegensatz zu Backlinks.

Hier sind 3 Beispiele der internen Verlinkung bei Greg, 2 von den "Plant Care" Seiten und eins aus einem der "schnellen, gezielten Artikel".

1. Verlinkung auf relevante FAQ-Artikel:

Ein Screenshot von greg.app. Dargestellt ist der FAQ-Bereich einer Plant Care Seite. In diesem findet man zahlreiche interne Links zu weiterführenden Inhalten.

2. Verlinkung auf ähnliche Pflanzen, zu der, die ich gerade anschaue:

Ein Screenshot von greg.app. Unter den Plant Care Seiten gibt es ein Linkmodul, in dem unter anderem ähnliche Pflanzen zu der, die man gerade aufgerufen hat, angezeigt werden.

3. Passende Links aus dem Textkontext heraus:

Ein Screenshot von greg.app. Auf den gezielten Landing Pages gibt es im Text kontextrelevante Verlinkungen, auf weiterführende Inhalte.

Vor allem das letzte Beispiel möchte ich näher beleuchten. Bei vielen zehntausend Seiten ist es unglaublich schwierig, die interne Verlinkung manuell zu handhaben. Zur Nachpflege bleibt dann beispielsweise eine schnelle site-Abfrage + Keyword oder z.B. der systematische Ansatz über den Screaming Frog mit einer Custom Search.

Das ist aber die NACHpflege. Greg nutzt KI für das Setzen von internen Links bei der Content-Erstellung:

"So a lot of internal linking is like, okay, we've got an article about toxicity. And so it looks for the word toxic or toxicity. Right.

Whereas in this case, ChatGPT is very good at synonyms. It's poisonous. It's even really good at understanding symptoms.

So if there's some discussion about stomach issues, it understands that that in this context is almost certainly caused by toxicity.

And so it can link that symptom or that really quite removed, but still related topic.

Neben direkten Bezeichnungen inklusive Synonymen, können LLMs auch andere Zusammenhänge verstehen, wie Symptome. Beim Erstellen der Inhalte geben sie der KI eine Liste an URLs mit. So können dann automatisch die passenden Links gesetzt werden, die über den Standard hinausgehen.

Das schützt nicht vollständig vor einer Nachpflege, wenn neue Inhalte dazukommen, aber auch hier setzt Greg sicherlich auf automatisierte Verfahren, die auf KI zurückgreifen.

Sind die Inhalte von Greg hilfreich oder Spam?

Das ist die goldene Frage. Ich habe ein klares "Hilfreich" empfunden. Aber ich war voreingenommen, da ich den Ansatz spannend und das Interview sehr hörenswert fand. Persönlich interessiere ich mich zwar für Pflanzen, aber nicht so sehr in der Tiefe, wie z. B. meine Freundin.

Ohne irgendwas zu erwähnen, habe ich ihr zwei Links geschickt und gebeten, sich die Seite mal anzuschauen und mir Feedback zu geben, wie sie die Inhalte findet. Wir haben einige Pflanzen – unter anderem auch eine Monstera. Das Feedback war sehr positiv.

Manchmal soll es ja helfen, wenn wir SEOs noch einen anderen Blickwinkel bekommen. Sonst kochen wir zu sehr in unserer eigenen Suppe.

Es ist also nicht so, dass Programmatic SEO und KI immer Spam sein müssen. Ich bin oft im Zwiespalt, denn leider gibt es genug Promo für "I created 1581930 pages in 1 day" und anderen Blödsinn. Entweder rankt so etwas gar nicht, nur kurzfristig, verdient keinen Euro, oder stürzt massiv ab, weil es nur geklaute Inhalte sind.

In diesem Fall finde ich den SEO-Erfolg bis hierhin erstmal gerechtfertigt. Das liegt vor allem daran, dass die KI-generierten Inhalte auf eigenen Daten aufbauen und nicht von einem LLM ohne Fachexpertise herbeigezaubert wurden.

"You can't build a brand with AI content. [...] There's no recognisable voice, no firsthand experience or narrative, and no real person behind the writing."

– Ryan Law

Matthias Pülz
Matthias Pülz
Junior Consultant
Appetit auf Optimierung – Low Hanging Fruit finden und verbessern

Du bist gerade dabei, den SEO-Frühjahrsputz anzugehen, den wir Dir in der letzten Newsletter-Ausgabe empfohlen haben? Super!

Stellt sich natürlich die Frage, wo Du am besten ansetzt und wie Du beispielsweise überhaupt Artikel findest, die Du (wieder einmal) optimieren solltest.

Eine simple, aber effektive 5-Schritte- Anleitung, wie und wo Du Content auf Deiner Website findest, den Du feinschleifen kannst, bekommst Du jetzt von mir:

  • Schritt 1: Öffne den Leistungs-Report in der Google Search Console Screenshot Auswahl Navigation Leistungs-Report aus der Google Search Console

  • Schritt 2: Vergleiche die Performance der letzten 28 Tage mit denen des Vorjahres Vergleichszeitraum "Compare last 28 days year over year" im Performance-Report der Google Search Console

  • Schritt 3: Wähle den Reiter "Seiten" und filtere nach den Seiten, die am meisten Klicks (oder Impressionen) verloren habenSeitenreiter im Performance-Report der Google Search Console. Gefiltert nach Klickunterschieden im Jahresvergleich (-70 Klicks)

  • Schritt 4: Prüfe die Seite und das Thema – ist das Thema auch in diesem Jahr noch relevant? Was muss aktualisiert werden? Nimm hierzu auch gerne Google Trends zur Hilfe, um zu prüfen, ob das Thema noch von Belang ist. Wenn ja: Optimiere den Content auf der Seite (idealerweise mit Blick in die SERP zum Hauptkeyword)

  • Schritt 5: Geh in den URL-Prüfungs-Report für die optimierte URL und schicke den Crawler vorbei, indem du auf "Request Indexing" klickst. URL Inspection-Report der Google Search Console mit indexierten URLs und "Request Indexing", um die URL noch einzureichen

Hast Du das erledigt, heißt es erst einmal warten. Etwas, das Du als SEO ja gewohnt bist. Doch wenn die Seite neu von Google verarbeitet wurde, sollte sich schon bald ein positiver Effekt einstellen und Deine Klicks, Impressionen und Rankings steigen.

Dann heißt es: Kurz zurücklehnen, über den steigenden Traffic freuen und einen großen Siegerschluck aus der Kaffeetasse nehmen, bevor Du Dich über das nächste To-Do machst.

Es geht ja bekanntlich nichts über ein paar Low Hanging Fruits zum Frühstück.

Behrend von Hülsen
Behrend von Hülsen
Consultant
Schooster, bleib bei Deinen lokalen Rankingfaktoren!

Cory Doctorow hat mal wieder Google aufs Korn genommen. Diesmal wettert er über Google Maps und ist in seiner Kritik gewohnt rabiat. Wenn Local-SEO dein Steckenpferd ist, nimm es nicht persönlich.

Aber auch, wenn Du als SEO anderer Meinung bist, ist seine Perspektive interessant. Sein Vorwurf an Google ist im Prinzip derselbe wie neulich: Google sitzt auf dem Monopol, nutzt aber die Gewinne, die sie darüber abschöpfen können, nicht um die Suchergebnisse für Nutzer zu verbessern.

Das ist insbesondere auf Google Maps ein Problem, da dort kleine Betriebe besonders relevant sind. Und die haben häufig keine Ressourcen oder Kompetenzen für SEO übrig. Der beste Schlüsseldienst in Deiner Nähe ist wahrscheinlich der Schlüsseldienst, der das beste SEO in der Gegend hat. Oder um Cory Doctorow zu zitieren:

If you're running a business, you can either invest [in] being good at your business, or good at Google SEO. Choose the former and your customers will love you – but they won't be able to find you, thanks to the people who choose the latter. And if you're going to invest in top-notch SEO, why bother investing in quality at all?

Im schlimmsten Fall ist der Schlüsseldienst, der am besten in SEO ist, gar kein Schlüsseldienst, sondern ein Lead Generator. Zumindest in Amerika schon 2016 ein größeres Problem und wenn man Cory Doctorow so liest, hat Google es wohl auch heute noch nicht im Griff.

Aber was kann Google tun?

Wie schon erwähnt, ist ein Fachmann für ein lokales Handwerk nunmal in der Regel kein SEO-Experte. Zumindest für mein erstbeste Beispiel-Idee, die Suche nach einem "Schuster Altona", scheint Cory Doctorows Kritik nicht berechtigt. Die Website des ersten Ergebnisses, "de Schooster" sieht genauso aus, als hätte ein Schuster sie gebaut und kein Webdesigner.

In der klassischen Web-Suche ist der Beispiel-Schuster zwar nicht mehr ganz vorne und wird von professionelleren Webseiten überholt. Er hält sich allerdings auf Position 4.

Anhand welcher Signale kann Google so ein lokales Suchergebnis bewerten, wenn die Website quasi nichts hergibt und viele der Konkurrenten in der Umgebung nicht einmal eine Website haben? Daran, dass Google einen Schooster mit Doppel-o im Namen besonders sympathisch findet, wirds wohl kaum liegen.

Wichtig ist natürlich, wenn es um eine lokalisierte Suchanfrage geht, die Nähe zum Ort der Suche. Aber das ist nicht das einzige Kriterium und mitunter auch schwer zu gewichten. So ein Ort wie Altona ist groß genug für mehrere Schuster und welcher der Schuster in Altona ist am nächsten und welcher ist schon allzu nah an Altona?

Google verlässt sich auch stark auf Bewertungen und natürlich Angaben aus einem Google Unternehmensprofil (früher mal Google My Business). Aber auch die sind nicht immer gut gepflegt, teilweise sind sie noch nicht einmal angelegt, sondern die Informationen sind crowdsourced.

Und Crowdsourcing ist von Natur aus manipulierbar, insofern ist auch das nicht unbedingt die beste Quelle für Informationen.

Bewertungen sind genauso crowdsourced, lassen sich aber wenigstens statistisch gut auswerten.

Wie kann Google also kleine Unternehmen, die sich nicht oder nur sehr begrenzt um ihre Webpräsenz kümmern, fair ranken?

Niemand hat vor, Nutzersignale zu benutzen

Meine Vermutung (und damit bin ich sicher nicht allein): Nutzersignale. Das geht in Google Maps noch viel schöner als in der normalen Suche. Der Pin welchen Schusters wird bei Suchen nach Schustern am häufigsten ausgewählt, um dahin zu navigieren? Welcher Schuster wird am häufigsten direkt gesucht? Welcher wird am häufigsten aus Maps heraus angerufen? Eventuell sogar, bei welchem Schuster sind Nutzer in den Stunden nach einer Suche am häufigsten vor Ort?

Diese Daten kann Google einfach erfassen, aber sie sind weit schwieriger zu manipulieren.

Und natürlich muss Google Spam erkennen und aussortieren

Was kannst Du tun, wenn Du bei Maps ranken willst?

Die Nähe zum Ort und Nutzersignale nicht einfach zu manipulieren. Am einfachsten schaffst Du das durch guten Service. Dadurch bekommst Du auch ganz organisch gute Bewertungen. Aber mit gutem Service lässt sich erst punkten, wenn die ersten Kunden einen überhaupt finden. Das eingangs von Cory Doctorow aufgeworfene Problem...

Aber folgende ein sauber gepflegtes Unternehmensprofil liegen ganz in Deiner Hand:

  • korrekte Öffnungszeiten,

  • ansprechende Fotos,

  • verfügbare Leistungen

  • und was sonst noch so für Kunden interessant sein könnte.

Eine ansprechende Website dazu schadet bestimmt auch nicht. Aber wie mein Lieblingsschuster zeigt, ist sie für lokale Suchen gar nicht mal so wichtig. ¯\_(ツ)_/¯ 🥾

Vorherige AusgabeNächste Ausgabe
 
Fragen? Immer gerne fragen!
Wir sind für Dich da.
Schreib uns gern jederzeit
eine E-Mail an kontakt@wngmn.de oder
ruf uns einfach kurz an: +49 40 22868040

Bis bald,
Deine Wingmenschen
Anckelmannsplatz 1, 20537 Hamburg, Germany
Wingmen Online Marketing GmbH Logo