Wirklich wahres Wingmen SEO Wissen f├╝r wache Webmarketer #197
Wingmen Online Marketing GmbH Logo
Nadine Kl├Âschen
Nadine Kl├Âschen
Consultant
Is there anybody out there?

Ist hier jemand? Oder bist Du auch, wie gef├╝hlt 90% der deutschen SEOs, in M├╝nchen bei der diesj├Ąhrigen SMX unterwegs? Falls ja, schau auf jeden Fall mal an unserem Wingmen-Stand vorbei. Da wird auch in diesem Jahr wieder kr├Ąftig unser Spiel "Och menno! GUUHGL" gezockt. Das Spiel darfst Du Dir im Anschluss dann gern mit nach Hause nehmen.*

Auch wenn hier gef├╝hlt die H├Ąlfte der Wingmenschen ausgeflogen ist, bedeutet das nat├╝rlich nicht, dass wir nicht auch in dieser Woche wieder jede Menge tolle Artikel f├╝r Dich parat haben.┬á

In dieser Ausgabe: 

  • zeigt Johan Dir einen Trick zur Filterung von Brand Traffic in der GSC

  • hat Anita die neuesten Infos zu den rollenden Core und Spam Updates parat

  • sinniert Philipp ├╝ber Programmatic SEO

  • serviert Matt Low Hanging Fruit

  • erkl├Ąrt Behrend, wie Du in Maps besser rankst

Viel Spa├č beim Lesen!

Deine Wingmenschen

* P.S. Falls Du auch so ein Spiel haben m├Âchtest und nicht in M├╝nchen bist, kannst Du es hier bestellen. ­čśë

Was wir gelesen haben
Johan von H├╝lsen
Johan von H├╝lsen
Gesch├Ąftsf├╝hrender Gesellschafter
Mein kleiner Hack f├╝r Brand-Traffic-Filterung in der GSC

Brand-Traffic ist kein SEO-Erfolg. Also eigentlich unter Umst├Ąnden schon, aber das ist eine andere Geschichte. Auf jeden Fall wollen wir Brand-Traffic filtern. Denn gleich ausweisen wie Non-Brand d├╝rfen wir den Traffic auf keinen Fall.

Egal ob wir das in der GSC, in BigQuery oder auf exportierten Daten in Python oder Knime machen: RegEx ist unser Freund. (Levenshtein Distanzen k├Ânnen auch gute Kumpel sein. Aber wirklich verlassen k├Ânnen wir uns nur auf regul├Ąre Ausdr├╝cke.)

Also her mit dem Hack (und der Erkl├Ąrung):

[brand]{4,6}

Durch die eckigen Klammern [] erzeugen wir eine Zeichenklasse, in der die Buchstaben in beliebiger Reihenfolge kommen k├Ânnen. Durch die geschweiften Klammern {} geben wir an, wie viele Zeichen vorkommen d├╝rfen. Im Beispiel mindestens 4, maximal 6.

Dadurch matchen wir alle Suchanfragen, die "brand" enthalten. Aber auch "branda", "barnd" und ├Ąhnliche Buchstabendreher. Die Anzahl der Vertipper bei gro├čen Brands ist erstaunlich.

Wollen wir Produkte mit dazu nehmen, dann wird daraus:

[brand]{4,6}|Produkt1|Produkt2

Oft haben Produkte Ziffern, die wir aggregieren k├Ânnen:

[brand]{4,6}|Produkt[0-9]+|superprodukt[0-9]+

Wenn wir dann noch mal ber├╝cksichtigen, dass Menschen sich nicht an die Konvention halten und "Produkt123", "Produkt 123" oder "Produkt- 123" schreiben, dann haben wir:

[brand]{4,6}|Produkt[- ]*[0-9]+|superprodukt[- ]*[0-9]+

Nat├╝rlich wollen wir uns das eigentlich noch ein wenig einfacher strukturieren:

[brand]{4,6}|(Produkt|superprodukt)[- ]*[0-9]+

In vielen F├Ąllen k├Ânnen wir damit innerhalb von Minuten einen 80/20 Brandfilter bauen.

Um die Qualit├Ąt zu evaluieren, f├╝hren wir den Filter aus:

Macht er im Test (beispielsweise mit regex101.com) das, was wir wollen?

Sind alle angezeigten Begriffe wirklich Brand-Begriffe? Wie viele False Positives haben wir in den ersten 100/200 Keywords?

Danach schlie├čen wir die RegEx aus. Wie viele Brand-Begriffe finden wir in den ersten 200-500 Keywords, die wir eventuell noch hinzuf├╝gen wollen?

Zur Sicherheit pr├╝fen wir noch mal in Verbindung mit der Startseite (die ja den meisten Brand-Traffic bekommt) in beide Richtungen.

Danach m├╝ssen wir uns nur noch ├╝berlegen, wie gro├č der Impact der anonymized Queries ist (falls wir das nicht auf Basis von BigQuery Daten machen):

Gesamt-Clicks 

- Summe Clicks mit Regex 

- Summe Clicks mit Ausschluss der Regex 

= Dunkelfeld durch anonymized Queries

Ob der Longtail eher Brand oder eher Non-Brand-Traffic ist, ist einzelfallabh├Ąngig. Aber wir k├Ânnen nicht einfach die Annahme treffen, dass der Longtail sich verh├Ąlt, wie der Shorthead.

├ťberraschend habe ich frische Likes auf einen alten Kommentar auf LinkedIn bekommen. Daher habe ich den Kommentar noch mal f├╝r Dich aufgebohrt und bin mir sicher, dass er Dir beim Filtern helfen wird.

Anita B├Âhm
Anita B├Âhm
Consultant
Updates im Doppelpack

Seit letztem Dienstag laufen die March 24 Core und Spam Updates von Google. Am 05. M├Ąrz kam fast zeitgleich der Hinweis und damit verbunden eine Menge Infos. Erste Entwicklungen zeichnen sich bereits ab. Bevor ich aber auf die Details eingehe:

"There's nothing new or special that creators need to do for this update as long as they've been making satisfying content meant for people."

Das schreibt Google im Blogpost "What web creators should know about our March 2024 core update and new spam policies" und betont: Wenn Du gute Inhalte f├╝r Menschen machst, dann gibt es f├╝r Dich keine Notwendigkeit etwas zu unternehmen. Also: Kein Grund zur Panik!

Das Core Update zielt darauf ab, die Qualit├Ąt der Google Suche zu verbessern. Diese wurde zuletzt immer wieder kritisiert. (Philipp hatte das in einer der letzten Ausgaben im Rahmen seiner Google Under Pressure Serie thematisiert.) Daher sollen clickbaity Inhalte zugunsten von hilfreichen Inhalten weichen.

Hand in Hand gehend mit dem Core Update gibt es ein Spam Update inklusive einer Reihe neuer Spam Policies. Diese zielen auf Methoden ab, die einen negativen Impact auf die Google Suche haben.

Core Update

Interessante Hinweise, Erkenntnisse und Entwicklungen aus dem Blogpost:

  • das March 2024 Core Update ist im Vergleich zu anderen Core Updates komplexer und soll laut Google das Erkennen der "Helpfulness" von Inhalten auf ein neues Level heben

  • es gibt kein einzelnes System, welches der Identifikation hilfreicher Inhalte dient, stattdessen greifen die Core Ranking Systems auf eine Vielzahl von Signalen und Ans├Ątzen zur├╝ck

  • es wird bis zu einem Monat dauern, bis das Update durch ist, und Google prophezeit, dass es gr├Â├čere Ranking-Ver├Ąnderungen geben wird als sonst bei Core Updates ├╝blich

In der begleitenden "Helpful content and Google Search results FAQ" erfahren wir au├čerdem:

  • die Core Ranking Systems zielen prim├Ąr auf einzelne individuelle Seiten ab, um deren "Helpfulness" zu verstehen

  • dar├╝ber hinaus gibt es auch einige seitenweite Signale, die mit einflie├čen

  • auch wenn die Core Ranking Systems prim├Ąr auf URL-Ebene arbeiten, k├Ânnen hohe Anteile an nicht hilfreichen Inhalten seitenweite Auswirkungen haben und die Leistung hilfreicher Inhalte negativ beeinflussen

  • diese Bremse kann durch die Entfernung entsprechender Inhalte gel├Âst werden

  • wann sich eine solche positive Wirkung zeigt, ist schwer zu sagen, da es an vielen Stellen st├Ąndig Ver├Ąnderungen gibt

Falls Du nochmal tiefer reinlesen magst: "Google Search's core updates and your website"

Falls Du Deine Inhalte nochmal im Hinblick auf "Helpfulness" evaluieren m├Âchtest: "Creating helpful, reliable, people-first content"

Nat├╝rlich haben s├Ąmtliche SEOs ein Auge auf das Core Update und auch schon einiges dar├╝ber geschrieben. Lily Ray zum Beispiel. Ausgerechnet The Verge (die ja vor nicht allzu langer Zeit ganz sch├Ân ausgeteilt haben gegen die SEO-Welt) hat einen aus ihrer Sicht sehr hilfreichen Artikel zu beiden Updates am Start.

"Ironically, the Verge (of all publications, lolz) has one of the most helpful articles about Google's upcoming core/spam updates, because it contains additional details by Pandu Nayak, VP of Search at Google."

In der Sistrix Movers und Shakers Liste vom 04. auf den 08. M├Ąrz kann man auch die ein oder andere interessante Entwicklung entdecken.

Spam Update

Interessante Hinweise, Erkenntnisse und Entwicklungen aus dem Blogpost:

  • es gibt nicht nur das M├Ąrz 2024 Spam Update, sondern auch drei neue Spam Policies: Expired Domain Abuse, Scaled Content Abuse und Site Reputation Abuse

  • wenn Du diese und weitere Praktiken anwendest, musst Du damit rechnen, dass Deine Website schlechter rankt oder gar nicht in den Suchergebnissen auftaucht

Die "Spam policies for Google web search" wurden entsprechend erg├Ąnzt. Hilfreich finde ich hier, dass jeweils auch ein paar Beispiele genannt werden.

Expired Domain Abuse: Wenn Du eine veraltete Domain kaufst und diese dann benutzt, um Rankings zu erzielen, ohne wirklich sinnvolle Inhalte bereitzustellen, machst Du Dich bei Google unbeliebt. (Doku)

Scaled Content Abuse: Ob Du Deine Inhalte mit Hilfe von AI schreibst oder nicht, ist Google egal. Aber wenn Du Inhalte im gro├čen Stil erstellst, um Rankings zu bekommen, obwohl Deine Inhalte nicht hilfreich sind, h├Ârt der Spa├č auf. (Doku)

Site Reputation Abuse: Wenn Du auf einer Subdomain Third Party Inhalte bereitstellst, die nicht wirklich etwas mit Deinem Hauptinhalt zu tun haben oder mit denen Du nicht wirklich was zu tun hast, k├Ânnte es bald auch Probleme geben. Insbesondere, wenn es f├╝r Nutzer*innen keinen Mehrwert hat. (Doku)

Zum Thema Site Reputation Abuse ist noch zu sagen: Es sind nicht automatisch alle Subdomains, auf denen Inhalte von Partnern gehostet werden, betroffen. Aber Du solltest Dir, wenn es das auf Deiner Website gibt, die Sache wirklich genau anschauen, basierend auf den Hinweisen, die es im Blogpost und der Doku gibt.

F├╝r den Fall, dass Du Dich hier nicht konform verh├Ąltst, ist die L├Âsung simpel: Der Inhalt muss von der Suche ausgeschlossen werden. Und weil das eine neue Policy ist, deren Umsetzung Zeit kosten kann, hast Du bis zum 05. Mai Zeit.

Seit dem Start des M├Ąrz 2024 Spam Updates gibt es in den USA wohl ein wahres Feuerwerk an Manual Actions in der Google Search Console. Barry Schwartz berichtet dar├╝ber in seinem Beitrag "Google Unleashes Manual Actions Galore After Search Spam Policy Updates" und Lily Ray teilt passend dazu f├╝r Betroffene ein paar Tipps via LinkedIn. In Deutschland ist das Feuerwerk derzeit (noch?) nicht zu sehen.

Und nun?

Man k├Ânnte noch einiges mehr zu den beiden Updates schreiben. Vielleicht in einer der kommenden Ausgaben des Newsletters? Hier machen wir erstmal einen Punkt.

Was ich Dir zusammenfassend mit auf den Weg geben m├Âchte: Keine Panik!

Sollte Dich tats├Ąchlich das eine oder andere Update erwischen, gibt es sehr klare Vorgehensweisen, die zu befolgen sind. Also im Fall der F├Ąlle k├╝hlen Kopf bewahren und das Protokoll befolgen.

Ohne Grund hektisch werden und wom├Âglich sogar blinden Aktionismus betreiben, ist nicht notwendig und auch nicht sinnvoll. Also: Einatmen. Ausatmen. Schauen, wo Du stehst und von da aus die n├Ąchsten Schritte einleiten, sollten sie ├╝berhaupt erforderlich sein.

Au├čerdem nicht vergessen: Das Core Update soll insgesamt etwa vier Wochen ben├Âtigen, das Spam Update wird in etwa einer Woche abgeschlossen sein. Bis dahin kann noch einiges passieren. Die Auswirkungen k├Ânnen also zum derzeitigen Zeitpunkt noch gar nicht abschlie├čend bewertet werden.

 Philipp G├Âtza
Philipp G├Âtza
Junior Consultant
Programmatic SEO: Alles Unkraut oder Wachstumsbeschleuniger? ­čî╗

Wenn Du unsere Slack Channels sehen k├Ânntest, w├╝sstest Du, dass ich mich zu Programmatic SEO hingezogen f├╝hle. Gleichzeitig argumentiere ich auch oft daf├╝r, dass im Internet viel zu viel Schrott rumfliegt. Ahrefs hat mal gesagt, dass es leicht ├╝ber 90% aller Inhalte sind, die keinen Klick aus der organischen Suche bekommen. Diese Statistik wurde k├╝rzlich aktualisiert:

"96.55% of Content Gets No Traffic From Google"

ÔÇô Link zur Studie

Also nochmal 6% mehr, was mich nicht wundert.

Die ganze Zeit hei├čt es, dass Google schlechter geworden sei. Was ist aber, wenn die durchschnittliche Qualit├Ąt der Inhalte schlechter geworden ist? Diese Gedanken schie├čen mir seit Wochen durch den Kopf und habe ich in Google Under Pressure und auf LinkedIn bereits abgefr├╝hst├╝ckt.

Jetzt schallern auch noch die Google Updates ÔÇô passend zum M├Ąrz und zur SMX ÔÇô rein. Die Google Updates hat Anita diese Woche auf dem Teller liegen. In Zusammenhang mit Programmatic SEO gehen bei Updates immer die Lauschmuscheln auf, denn John Mueller hat es letztes Jahr auch schon deutlich gesagt:

"I love fire, but also programmatic SEO is often a fancy banner for spam."

Am Ende geht es wie immer um Qualit├Ąt und wie hilfreich die Inhalte f├╝r Nutzer und Nutzerinnen sind. Auch wenn die Anzahl der Spam-Beispiele zahlreicher ist, gibt es auch einige sehr positive Beispiele, wie z. B. Webflow und Zapier ÔÇô oder Greg.┬á

Wer oder was ist Greg?

Von Greg hatte ich bis vorletzte Woche noch nichts geh├Ârt. Der CEO, Alex Ross, war im Optimize Podcast zu Gast. Die 60 Minuten habe ich mir reingezogen und die spannendsten Insights f├╝r Dich gesammelt.

Gregs Produkt ist eine App, mit der Du Pflanzen identifizieren kannst und direkt die passenden Pflegeinformationen bekommst.

Da stecken einige Pferdest├Ąrken unter der Website-Motorhaube. In Ahrefs k├Ânnen wir vor allem zum Jahresende eine starke Explosion bei den organischen Seiten und dem organischen Traffic erkennen:

Ein Chart aus ahrefs f├╝r greg.app, dass den organischen Traffic und die organischen Seiten darstellt. Ende 2023 erfolgt hier ein rapider Anstieg auf mehr als 100.000 organische Seiten und ├╝ber 340.000 organische Aufrufe.

Es schien in 2023 so, als habe man ein lokales Maximum erreicht, das inzwischen durchbrochen wurde.

Auch der Sichtbarkeitsindex von Sistrix in den USA offenbart diese Entwicklung:

Ein Chart aus Sistrix, dass den Sichtbarkeitsindex von greg.app zeigt. Dieser ist Ende 2023 bei einem Wert von 0,13 und ist seitdem rapide auf ├╝ber 0,20 angestiegen.

Was steckt hinter der SEO-Strategie von Greg?

Es ist ein KI-gest├╝tzter, programmatischer Ansatz. Im Podcast spricht Alex von zwei Etappen, die sie durchlaufen haben.

1. Der Auftakt

Basierend auf ihrer eigenen Datenbank haben sie f├╝r jeden Pflanzentyp eine Landing Page angelegt, die Informationen zu Bew├Ąsserung, Sonnenlicht und D├╝ngung bereitstellt. Das sieht ungef├Ąhr so aus:

Ein Screenshot von greg.app. Zu sehen ist eine Seite die in der Navigation unter Plant Care liegt und die Monstera Pflanze thematisiert. Neben Basisinformationen und einem Rating aus Community-Bewertungen kann man im unteren Bereich auch "How to care for Monstera" erkennen inklusive einem Jump Link zur Zusammenfassung.

Zus├Ątzlich wird jede Seite durch UGC aufgewertet, beispielsweise in Form von

  • den am h├Ąufigsten ausgew├Ąhlten Pflanzeneigenschaften,

  • popul├Ąren Community-Fragen und

  • Reviews.

Der Ansatz mit den eingebundenen Community-Fragen erinnert stark an Quora.

Anstatt die Inhalte vollst├Ąndig per KI schreiben zu lassen ÔÇô etwas, das meiner Erfahrung selten gut funktioniert ÔÇô erfolgt die Erstellung in Etappen auf Basis einer 10.000 Zeilen langen Prompt Engine:

"And we wrote a very large, I'm talking 10,000 lines of code, prompt engine for reliably and with high quality writing, very specific, very well-formed sections of content for each type of topic, whether it's toxicity or leads."

Pers├Ânlich ist mir h├Ąufig aufgefallen, dass ChatGPT & Co. Schwierigkeiten haben, den Fokus zu behalten und Leitplanken brauchen. Auch Alex beschreibt das im Podcast:

"And so very quickly we learned that we have to narrow it down so that it's almost an assembly line where the LLM is focusing on this part and then on that part and then on that part. [...]

You can't, there's something going on with the attention span of these LLMs, where when you give it too big of a task, its brain gets scrambled and it loses attention."

Basis f├╝r die zweite Etappe war eine intensive Keyword-Recherche.

2. Die Expansion

Neben den Themen Bew├Ąsserung, Sonnenlicht und D├╝ngung gibt es viele weitere Themen, zu denen aktiv in Zusammenhang mit Pflanzen gesucht wird, wie z. B.

  • Krankheiten,

  • Giftigkeit und

  • braune Bl├Ątter.

In der Recherche hat das Team von Greg 26 Themen identifiziert, die dann mit gezielten Seiten pro Pflanzenart und in unterschiedlichen Kombinationen abgedeckt wurden. Auch hier eine Parallele zu Reddit & Quora: Anstatt unfassbar langen Content lesen zu m├╝ssen, weil alles auf einer holistischen Seite untergebracht ist, bekommt man sehr schnell die gesuchte Antwort.

Mittlerweile haben sie ├╝ber 100.000 Seiten angelegt und einen Gro├čteil davon in weniger als 3 Monaten.

Was macht Greg besonders gut?

Alles wirkt wie aus einem Guss und es ist das Gegenteil von einem "get rich quick" Schema. So eine Website erstellt man nicht, wenn man nur die schnelle Mark riecht und eigentlich keine Ahnung hat.

Eine der wichtigsten Komponenten in der SEO ist die interne Verlinkung. Vor allem deswegen, weil wir sie 100% kontrollieren k├Ânnen, im Gegensatz zu Backlinks.

Hier sind 3 Beispiele der internen Verlinkung bei Greg, 2 von den "Plant Care" Seiten und eins aus einem der "schnellen, gezielten Artikel".

1. Verlinkung auf relevante FAQ-Artikel:

Ein Screenshot von greg.app. Dargestellt ist der FAQ-Bereich einer Plant Care Seite. In diesem findet man zahlreiche interne Links zu weiterf├╝hrenden Inhalten.

2. Verlinkung auf ├Ąhnliche Pflanzen, zu der, die ich gerade anschaue:

Ein Screenshot von greg.app. Unter den Plant Care Seiten gibt es ein Linkmodul, in dem unter anderem ├Ąhnliche Pflanzen zu der, die man gerade aufgerufen hat, angezeigt werden.

3. Passende Links aus dem Textkontext heraus:

Ein Screenshot von greg.app. Auf den gezielten Landing Pages gibt es im Text kontextrelevante Verlinkungen, auf weiterf├╝hrende Inhalte.

Vor allem das letzte Beispiel m├Âchte ich n├Ąher beleuchten. Bei vielen zehntausend Seiten ist es unglaublich schwierig, die interne Verlinkung manuell zu handhaben. Zur Nachpflege bleibt dann beispielsweise eine schnelle site-Abfrage + Keyword oder z.B. der systematische Ansatz ├╝ber den Screaming Frog mit einer Custom Search.

Das ist aber die NACHpflege. Greg nutzt KI f├╝r das Setzen von internen Links bei der Content-Erstellung:

"So a lot of internal linking is like, okay, we've got an article about toxicity. And so it looks for the word toxic or toxicity. Right.

Whereas in this case, ChatGPT is very good at synonyms. It's poisonous. It's even really good at understanding symptoms.

So if there's some discussion about stomach issues, it understands that that in this context is almost certainly caused by toxicity.

And so it can link that symptom or that really quite removed, but still related topic.

Neben direkten Bezeichnungen inklusive Synonymen, k├Ânnen LLMs auch andere Zusammenh├Ąnge verstehen, wie Symptome. Beim Erstellen der Inhalte geben sie der KI eine Liste an URLs mit. So k├Ânnen dann automatisch die passenden Links gesetzt werden, die ├╝ber den Standard hinausgehen.

Das sch├╝tzt nicht vollst├Ąndig vor einer Nachpflege, wenn neue Inhalte dazukommen, aber auch hier setzt Greg sicherlich auf automatisierte Verfahren, die auf KI zur├╝ckgreifen.

Sind die Inhalte von Greg hilfreich oder Spam?

Das ist die goldene Frage. Ich habe ein klares "Hilfreich" empfunden. Aber ich war voreingenommen, da ich den Ansatz spannend und das Interview sehr h├Ârenswert fand. Pers├Ânlich interessiere ich mich zwar f├╝r Pflanzen, aber nicht so sehr in der Tiefe, wie z. B. meine Freundin.

Ohne irgendwas zu erw├Ąhnen, habe ich ihr zwei Links geschickt und gebeten, sich die Seite mal anzuschauen und mir Feedback zu geben, wie sie die Inhalte findet. Wir haben einige Pflanzen ÔÇô unter anderem auch eine Monstera. Das Feedback war sehr positiv.

Manchmal soll es ja helfen, wenn wir SEOs noch einen anderen Blickwinkel bekommen. Sonst kochen wir zu sehr in unserer eigenen Suppe.

Es ist also nicht so, dass Programmatic SEO und KI immer Spam sein m├╝ssen. Ich bin oft im Zwiespalt, denn leider gibt es genug Promo f├╝r "I created 1581930 pages in 1 day" und anderen Bl├Âdsinn. Entweder rankt so etwas gar nicht, nur kurzfristig, verdient keinen Euro, oder st├╝rzt massiv ab, weil es nur geklaute Inhalte sind.

In diesem Fall finde ich den SEO-Erfolg bis hierhin erstmal gerechtfertigt. Das liegt vor allem daran, dass die KI-generierten Inhalte auf eigenen Daten aufbauen und nicht von einem LLM ohne Fachexpertise herbeigezaubert wurden.

"You can't build a brand with AI content. [...] There's no recognisable voice, no firsthand experience or narrative, and no real person behind the writing."

ÔÇô Ryan Law

Matthias P├╝lz
Matthias P├╝lz
Junior Consultant
Appetit auf Optimierung ÔÇô Low Hanging Fruit finden und verbessern

Du bist gerade dabei, den SEO-Fr├╝hjahrsputz anzugehen, den wir Dir in der letzten Newsletter-Ausgabe empfohlen haben? Super!

Stellt sich nat├╝rlich die Frage, wo Du am besten ansetzt und wie Du beispielsweise ├╝berhaupt Artikel findest, die Du (wieder einmal) optimieren solltest.

Eine simple, aber effektive 5-Schritte- Anleitung, wie und wo Du Content auf Deiner Website findest, den Du feinschleifen kannst, bekommst Du jetzt von mir:

  • Schritt 1: ├ľffne den Leistungs-Report in der Google Search Console Screenshot Auswahl Navigation Leistungs-Report aus der Google Search Console

  • Schritt 2: Vergleiche die Performance der letzten 28 Tage mit denen des Vorjahres Vergleichszeitraum "Compare last 28 days year over year" im Performance-Report der Google Search Console

  • Schritt 3: W├Ąhle den Reiter "Seiten" und filtere nach den Seiten, die am meisten Klicks (oder Impressionen) verloren habenSeitenreiter im Performance-Report der Google Search Console. Gefiltert nach Klickunterschieden im Jahresvergleich (-70 Klicks)

  • Schritt 4: Pr├╝fe die Seite und das Thema ÔÇô ist das Thema auch in diesem Jahr noch relevant? Was muss aktualisiert werden? Nimm hierzu auch gerne Google Trends zur Hilfe, um zu pr├╝fen, ob das Thema noch von Belang ist. Wenn ja: Optimiere den Content auf der Seite (idealerweise mit Blick in die SERP zum Hauptkeyword)

  • Schritt 5: Geh in den URL-Pr├╝fungs-Report f├╝r die optimierte URL und schicke den Crawler vorbei, indem du auf "Request Indexing" klickst. URL Inspection-Report der Google Search Console mit indexierten URLs und "Request Indexing", um die URL noch einzureichen

Hast Du das erledigt, hei├čt es erst einmal warten. Etwas, das Du als SEO ja gewohnt bist. Doch wenn die Seite neu von Google verarbeitet wurde, sollte sich schon bald ein positiver Effekt einstellen und Deine Klicks, Impressionen und Rankings steigen.

Dann hei├čt es: Kurz zur├╝cklehnen, ├╝ber den steigenden Traffic freuen und einen gro├čen Siegerschluck aus der Kaffeetasse nehmen, bevor Du Dich ├╝ber das n├Ąchste To-Do machst.

Es geht ja bekanntlich nichts ├╝ber ein paar Low Hanging Fruits zum Fr├╝hst├╝ck.

Behrend von H├╝lsen
Behrend von H├╝lsen
Consultant
Schooster, bleib bei Deinen lokalen Rankingfaktoren!

Cory Doctorow hat mal wieder Google aufs Korn genommen. Diesmal wettert er ├╝ber Google Maps und ist in seiner Kritik gewohnt rabiat. Wenn Local-SEO dein Steckenpferd ist, nimm es nicht pers├Ânlich.

Aber auch, wenn Du als SEO anderer Meinung bist, ist seine Perspektive interessant. Sein Vorwurf an Google ist im Prinzip derselbe wie neulich: Google sitzt auf dem Monopol, nutzt aber die Gewinne, die sie dar├╝ber absch├Âpfen k├Ânnen, nicht um die Suchergebnisse f├╝r Nutzer zu verbessern.

Das ist insbesondere auf Google Maps ein Problem, da dort kleine Betriebe besonders relevant sind. Und die haben h├Ąufig keine Ressourcen oder Kompetenzen f├╝r SEO ├╝brig. Der beste Schl├╝sseldienst in Deiner N├Ąhe ist wahrscheinlich der Schl├╝sseldienst, der das beste SEO in der Gegend hat. Oder um Cory Doctorow zu zitieren:

If you're running a business, you can either invest [in] being good at your business, or good at Google SEO. Choose the former and your customers will love you ÔÇô but they won't be able to find you, thanks to the people who choose the latter. And if you're going to invest in top-notch SEO, why bother investing in quality at all?

Im schlimmsten Fall ist der Schl├╝sseldienst, der am besten in SEO ist, gar kein Schl├╝sseldienst, sondern ein Lead Generator. Zumindest in Amerika schon 2016 ein gr├Â├čeres Problem und wenn man Cory Doctorow so liest, hat Google es wohl auch heute noch nicht im Griff.

Aber was kann Google tun?

Wie schon erw├Ąhnt, ist ein Fachmann f├╝r ein lokales Handwerk nunmal in der Regel kein SEO-Experte. Zumindest f├╝r mein erstbeste Beispiel-Idee, die Suche nach einem "Schuster Altona", scheint Cory Doctorows Kritik nicht berechtigt. Die Website des ersten Ergebnisses, "de Schooster" sieht genauso aus, als h├Ątte ein Schuster sie gebaut und kein Webdesigner.

In der klassischen Web-Suche ist der Beispiel-Schuster zwar nicht mehr ganz vorne und wird von professionelleren Webseiten ├╝berholt. Er h├Ąlt sich allerdings auf Position 4.

Anhand welcher Signale kann Google so ein lokales Suchergebnis bewerten, wenn die Website quasi nichts hergibt und viele der Konkurrenten in der Umgebung nicht einmal eine Website haben? Daran, dass Google einen Schooster mit Doppel-o im Namen besonders sympathisch findet, wirds wohl kaum liegen.

Wichtig ist nat├╝rlich, wenn es um eine lokalisierte Suchanfrage geht, die N├Ąhe zum Ort der Suche. Aber das ist nicht das einzige Kriterium und mitunter auch schwer zu gewichten. So ein Ort wie Altona ist gro├č genug f├╝r mehrere Schuster und welcher der Schuster in Altona ist am n├Ąchsten und welcher ist schon allzu nah an Altona?

Google verl├Ąsst sich auch stark auf Bewertungen und nat├╝rlich Angaben aus einem Google Unternehmensprofil (fr├╝her mal Google My Business). Aber auch die sind nicht immer gut gepflegt, teilweise sind sie noch nicht einmal angelegt, sondern die Informationen sind crowdsourced.

Und Crowdsourcing ist von Natur aus manipulierbar, insofern ist auch das nicht unbedingt die beste Quelle f├╝r Informationen.

Bewertungen sind genauso crowdsourced, lassen sich aber wenigstens statistisch gut auswerten.

Wie kann Google also kleine Unternehmen, die sich nicht oder nur sehr begrenzt um ihre Webpr├Ąsenz k├╝mmern, fair ranken?

Niemand hat vor, Nutzersignale zu benutzen

Meine Vermutung (und damit bin ich sicher nicht allein): Nutzersignale. Das geht in Google Maps noch viel sch├Âner als in der normalen Suche. Der Pin welchen Schusters wird bei Suchen nach Schustern am h├Ąufigsten ausgew├Ąhlt, um dahin zu navigieren? Welcher Schuster wird am h├Ąufigsten direkt gesucht? Welcher wird am h├Ąufigsten aus Maps heraus angerufen? Eventuell sogar, bei welchem Schuster sind Nutzer in den Stunden nach einer Suche am h├Ąufigsten vor Ort?

Diese Daten kann Google einfach erfassen, aber sie sind weit schwieriger zu manipulieren.

Und nat├╝rlich muss Google Spam erkennen und aussortieren

Was kannst Du tun, wenn Du bei Maps ranken willst?

Die N├Ąhe zum Ort und Nutzersignale nicht einfach zu manipulieren. Am einfachsten schaffst Du das durch guten Service. Dadurch bekommst Du auch ganz organisch gute Bewertungen. Aber mit gutem Service l├Ąsst sich erst punkten, wenn die ersten Kunden einen ├╝berhaupt finden. Das eingangs von Cory Doctorow aufgeworfene Problem...

Aber folgende ein sauber gepflegtes Unternehmensprofil liegen ganz in Deiner Hand:

  • korrekte ├ľffnungszeiten,

  • ansprechende Fotos,

  • verf├╝gbare Leistungen

  • und was sonst noch so f├╝r Kunden interessant sein k├Ânnte.

Eine ansprechende Website dazu schadet bestimmt auch nicht. Aber wie mein Lieblingsschuster zeigt, ist sie f├╝r lokale Suchen gar nicht mal so wichtig. ┬»\_(Ńâä)_/┬» ­čąż

Vorherige AusgabeN├Ąchste Ausgabe
 
Fragen? Immer gerne fragen!
Wir sind f├╝r Dich da.
Schreib uns gern jederzeit
eine E-Mail an kontakt@wngmn.de oder
ruf uns einfach kurz an: +49 40 22868040

Bis bald,
Deine Wingmenschen
Anckelmannsplatz 1, 20537 Hamburg, Germany
Wingmen Online Marketing GmbH Logo