Zur├╝ck zur Newsletter-├ťbersicht
Wirklich wahres Wingmen SEO Wissen f├╝r wache Webmarketer #53
Wingmen Online Marketing GmbH Logo
Johan von H├╝lsen
Johan von H├╝lsen
Gesch├Ąftsf├╝hrender Gesellschafter
Ein SEO ist immer auch ein Kammerj├Ąger

Ein Gl├╝ck scheint die Sonne. Denn in der letzten Woche sind ein paar betr├╝bliche Pannen aufgetaucht. Da Du Dir mehr Einblick in unseren Alltag gew├╝nscht hast, kannst Du unten meinen Bugreport der letzten Woche lesen. Au├čerdem:

  • Behrend beurteilt das Entfernen der Rich Results aus der Search Console und hat immer noch was zu moppern
  • Andreas achtet auf Spam bei Kundenprojekten
  • Nora n├Ąhert sich dem Geotargeting
  • Flo ├Ąrgert sich mal wieder ├╝ber Google, den Javascript-K├Ânner

F├╝r l├Ąngere Einleitungen ist das Wetter zu gut. Genie├č die Sonne!

Und jetzt: Viel Spa├č beim Lesen

Was wir gelesen haben
Johan von H├╝lsen
Johan von H├╝lsen
Gesch├Ąftsf├╝hrender Gesellschafter
K├Ąfer-Chaos und kritische Katastrophen

Kurz, aber intensiv. Eine Woche voller Erkenntnisse und Bugs. Miese kleine K├Ąfer. Letzte Woche war wirklich der Wurm drin. Eine Wurmwoche sozusagen:

  • Dienstag: Robots.txt Disallow f├╝r eine ganze Domain. Falls Google die ├╝berarbeitete Robots.txt nicht sofort nehmen will: Hier der Link.
  • Mittwoch: Gehackte Subdomain mit Spam. L├Âsung: Subdomain disconnecten und deindexieren via Google Search Console.
  • Donnerstag: Ein Teaser-Banner wird auf der Startseite eingebaut. Der erste Link zur Landingpage auf der Seite ist jetzt nicht mehr das Keyword, da das Alt-Attribut des Banners nicht den Linktext enth├Ąlt. Daher wird der Linktext mit relevantem Keyword eines zweiten Links zur Landingpage weiter unten entwertet. Ergebnis: Die Zielseite rankt nicht mehr. Eine ├änderung des Alt-Attributs bringt das Seite 1 Ranking zur├╝ck. Um Umwelt-Einfl├╝sse in der Schlussfolgerung zu reduzieren, versuchen wir gerade das Verhalten zu reproduzieren.
  • Freitag: Kunde hat Links auf eine Subdomain eingerichtet. Allerdings mit Tracking-Parametern. Auf der Subdomain entstehen so 2 Mio. unique URLs aus dem Hauptangebot. Diese URLs versucht Google zu crawlen und zwingt den Service der Subdomain in die Knie. Eigentlich besteht die Subdomain nur aus 100 URLs, die gut gecached sind.

Alles meine Kunden. Und ein Fehler klingt konstruierter als der andere. Ist aber wirklich so passiert. Ich schw├Âre (und kann es beweisen).

Dazu kommt ein Publisher: Irgendwie spielen wir heute keine Werbung aus. Ein Case, den man sich als SEO nur w├╝nschen kann. Denn jetzt kann man eindeutig den Impact der Ads auf die Ladezeiten belegen. Yay!

Noch ein Bug vergangene Woche: Der Googlebot wurde von der Consent-Weiche nicht ausgenommen und mit JavaScript-Weiterleitung auf eine Consent-URL geschickt. Damit konnte Google die Seite nicht mehr crawlen und hat begonnen die Inhalte aus dem Index zu werfen.

Und weil es so sch├Ân ist mit den Bugs: Als Marcus, Alex und ich ├╝ber das Google-Update der letzten Woche gesprochen haben sind wir dar├╝ber gestolpert, dass die Startseite einer Domain auf Noindex steht.

Aber Bugs passieren nicht nur im SEO. Klarna zeigt den Kunden einfach beim Einloggen jedes Mal Daten anderer Kunden an. Bitter.

Ein Gl├╝ck, dass diese verbuggte Woche nur vier Tage hatte!

Um Dich von derlei ├ťberraschungen abzusichern, bietet sich im ├ťbrigen ein Website-Monitoring an. Kleiner Nachteil: Du kannst Dich damit nur vor solchen Bugs sch├╝tzen, die Du selbst in Erw├Ągung ziehst. Wenn dann aber ganz wilde und kreative Dinge passieren, die au├čerhalb des eigenen Vorstellungsbereichs liegen, kann man sich dagegen leider nicht so wirklich sch├╝tzen. Aber: Jeden neuen Bug, nachdem er einmal aufgetreten und beseitigt wurde, ins bestehende Monitoring mit aufnehmen - damit beim n├Ąchsten Mal die Alarmglocke losgeht!

Behrend von H├╝lsen
Behrend von H├╝lsen
Consultant
Rich Results Rest in Peace

Keine Panik, Rich Results in der SERP bleiben da, wo sie sind. Es geht um das Reporting der Rich Results in der GSC. Wieder einmal wird Nutzer-Feedback umgesetzt. Ab 01.08.2021 sind wir das Rich Result Sammelbecken los. Die Erkenntnis, dass die Breadcrumbs fast ├╝berall ausgespielt werden, hat uns nie wirklich weitergeholfen. Inzwischen sind die wichtigsten Rich Snippet Varianten als eigene Kategorie vertreten und man kann den Search Appearance Bericht schon fast sinnvoll nutzen. Problematisch sind weiterhin die Auswertung f├╝r Event und Job Ergebnisse, die selbst, wenn man die Dokumentation der Z├Ąhlweise verstanden hat, nicht weiterhelfen. F├╝r mich ist aber das GSC-Feedback der Woche:

As a SEO-Analyst I want to be able to use filters to exclude values for the dimensions Countries, Search Appearance and Devices to be able to filter for URLs without a certain page experience or rankings from countries other than my target market

Denn es w├Ąre doch praktisch, wenn Du einen Kernmarkt ausschlie├čen k├Ânntest, um zu sehen, was aus dem Ausland an Klicks auftaucht. Oder wie sich der Traffic f├╝r URLs mit schlechter Page Experience entwickelt. Wenn Du das auch so siehst: Der Feedback-Button in der GSC ist wie gewohnt links unten in der Seitenleiste. Den Text kannst Du gerne einfach von hier kopieren und einf├╝gen.

Andreas Schalay
Andreas Schalay
Consultant
Besch├╝tze Deine Website vor Spam

Am 26.05.2021 hat Google im Search Central Blog darauf hingewiesen, dass die Low-Quality Inhalte in bestimmten Seitenbereichen auf die Rankings der ganzen Website eine negative Auswirkung haben k├Ânnen. Deswegen empfiehlt Google die Inhalte auf der Seite regelm├Ą├čig zu pr├╝fen und bei Bedarf aufzur├Ąumen.

In erster Linie sind damit nat├╝rlich alle Websites gemeint, die ├╝ber ein Forum, G├Ąstebuch oder Kommentare verf├╝gen. Denn wenn die Nutzer ohne Kontrolle Inhalte erstellen k├Ânnen, dann k├Ânnen das auch die Bots oder die SEOs. Also, wenn es auf Deiner Seite sowas gibt, solltest Du unbedingt Moderation, Captcha und Login-Funktion in diesen Bereichen einf├╝hren.

Putzig ist auch der Tipp von Google, Alerts f├╝r die Site-Abfragen in Kombination mit unterschiedlichen klassischen ÔÇ×Spam-KeywordsÔÇť einzurichten. Wir sind erstmal safe, und Du?

Aber es geht nicht nur um UGC, denn zu ÔÇ×Low-QualityÔÇť Content geh├Âren auch leere Filterseiten, Tag-Seiten ohne Artikel und andere Seiten ohne Mehrwert f├╝r den Nutzer. Deswegen empfehlen wir, die Seite regelm├Ą├čig zu crawlen und zu pr├╝fen, ob alle verlinkte Seiten eine Existenz- und Verlinkungsberechtigung haben.

Kleiner Tipp: Um leere Kategorieseiten und ├Ąhnliches zu finden, k├Ânnen die Custom Extraction Funktionen von Screaming Frog und anderen Crawlern extrem n├╝tzlich sein. Dar├╝ber kannst Du zum Beispiel ganz einfach die angegebene Menge an Elementen in einer Liste mit Produkten extrahieren. Oder die Menge an Text innerhalb eines bestimmten Bereichs. Au├čerdem immer ein guter Ort, an dem Du eine kleine Marie Kondo Aktion starten kannst: Die Google Search Console. Welche URLs haben in den letzten 3, 6, 9, 12 Monaten kaum mehr Impressionen oder Klicks erhalten? Was d├╝mpelt alles so im ÔÇťExcludedÔÇŁ-Bereich des Coverage Reports rum? Einen hilfreichen Artikel, um Deine Inhalte auf den Pr├╝fstand zu stellen, hat Johan schon mal f├╝r Dich aufgeschrieben.

Florian Stelzner
Florian Stelzner
Gesch├Ąftsf├╝hrender Gesellschafter
Kann nun Google dieses Javascript oder nicht?

In der 18. Episode von Search of the Record Podcast wurde wieder die Frage, ob Google mit Javascript umgehen kann, gestellt.

John Mueller berichtet von seiner kleinen Hobby-Seite, die er mit einem Static Site Generator gebaut hat. Als er Weiterleitungen einrichten wollte, musste er feststellen, dass es nur mit Javascript gehen w├╝rde. Deshalb fragte er seinen Podcast-Kollegen und Google Developer Martin Splitt, ob es deswegen mit Google Probleme geben k├Ânnte.

Daraufhin erkl├Ąrt Martin, dass Google grunds├Ątzlich keinen Unterschied zwischen statischen HTML und Javascript Content macht. Google crawlt die Seite und indexiert den HTML Inhalt. Dann wird die Seite gerendert und damit auch der DOM final aufgebaut. Es sollte also keine Probleme mit Inhalten, die nur mit Javascript erreichbar sind, geben. Damit k├Ânnte man die ganze Diskussion zum Thema Google und Javascript abschlie├čen. W├Ąren da nicht diese zwei Aussagen, die Martin am Ende seiner Ausf├╝hrungen noch erg├Ąnzend hinzugef├╝gt hatte:

  1. "There's nothing that is fundamentally different between JavaScript generated content and static content, except for when there's edge cases, and we can't see content that is generated by JavaScript"

  2. "I think links are also immediately extracted from the crawled HTML, and then we do that again where we have the rendered HTML. I think there's a logic that gets us link discovery as early as possible in the process, too"

M├Âchtest Du also das Risiko vermeiden, dass wichtige Inhalte, als ÔÇ×edge casesÔÇť durch Google nicht wahrgenommen werden? M├Âchtest Du au├čerdem sicher gehen, dass die wichtigsten internen Links durch Google so schnell wie m├Âglich in die Pagerank-Bewertung einbezogen werden? Dann solltest Du die wichtigsten Inhalte und Verlinkungen auf der Seite auch ohne Javascript erreichbar machen. "Don't make Google think" predige ich schon seit vielen grauen Haaren!

Nora Tiedemann
Nora Tiedemann
Trainee
Kurzer Ausflug mit Google ins Geo-Targeting

In dem aktuellen SEO-Office-Hours-Hangout von Google erkl├Ąrt John M├╝ller (unter anderem) zwei Wege, wie Du Deine Seite Geo-Targeting-tauglich machen kannst.

Eine M├Âglichkeit w├Ąre, eine Country-Code-Top-Level-Domains (ccTLDs) zu verwenden. Im Falle Deutschland w├Ąre dies eine Domain mit der Endung .de

Eine weitere Option ist es, eine generische Top-Level-Domain wie .com verwenden und stattdessen das Geo-Targeting-Setting in der Google Search Console zu nutzen. Du findest diese Einstellungsm├Âglichkeit unter ÔÇťLegacy tools and reportsÔÇŁ -> ÔÇťInternational TargetingÔÇŁ.

Unter Country hast Du die M├Âglichkeit, ein Land auszuw├Ąhlen. Von dort aus gelangst Du auf eine ├ťbersichtsseite und hast unter Country die M├Âglichkeit, ein Land auszuw├Ąhlen. Diese Einstellung bezieht sich laut Google nur auf geografische Daten. Diese Option der L├Ąnderspezifizierung hat jedoch ihre Grenzen. Wenn Du zum Beispiel eine Seite hast, die auf Deutsch ist, aber auch f├╝r Nutzer aus ├ľsterreich und der Schweiz von Relevanz sein k├Ânnte, w├╝rdest du Deine potenzielle Nutzergruppe bei der Wahl ÔÇťDeutschlandÔÇŁ eventuell einschr├Ąnken. Im Zweifel also lieber den Trichter oben weiter offen lassen. Au├čer Du bist Dir wirklich ganz sicher, nur diese bestimmte Region ansprechen zu wollen.

F├╝r solch einen Fall k├Ânnte die zweite ├ťbersicht interessant sein. Unter Language erh├Ąltst Du eine Auflistung verwendeter Hreflang-Attribute (wenn vorhanden) und deren Fehler. Diese ├ťbersicht kann vor allem f├╝r multiregionale und mehrsprachige Websites hilfreich sein. Wenn keine Hreflangs, aber verschiedene Sprach- oder L├Ąnder-Versionen vorhanden sind, solltest Du Dir dazu m├Âglicherweise mal dringend ein paar Gedanken dazu machen. Dabei kann Dir dieser ausf├╝hrliche Wissensbeitrag von Behrend behilflich sein. Genauso wie dieses n├╝tzliche Hreflang-Generator-Tool von Aleyda.

Falls Du eine multiregionale und/oder mehrsprachige Website hast, gibt Google Dir in diesem Artikel au├čerdem n├╝tzliche Tipps zum verwalten und optimieren Deiner Inhalte.

Ich hoffe Dir hat unser kurzer Ausflug mit Google in die M├Âglichkeiten des Geo-Targeting gefallen!

Zum Thema internationales SEO bereiten wir gerade mit unseren Freunden von Wieners+Wieners ein Whitepaper vor. Schick mir gern eine kurze Notiz an nora.tiedemann@wngmn.de und ich schicke Dir ein Update, wenn das Whitepaper in ein paar Wochen fertig ist.

 
Fragen? Immer gerne fragen!
Wir sind f├╝r Dich da.
Schreib uns gern jederzeit
eine E-Mail an kontakt@wngmn.de oder
ruf uns einfach kurz an: +49 40 22868040

Bis bald,
Deine Wingmen
Anckelmannsplatz 1, 20537 Hamburg, Germany
Wingmen Online Marketing GmbH Logo