Wirklich wahres Wingmen SEO Wissen für wache Webmarketer #76
|
|
|
Es ist wieder so weit:
Spam-Update-Time
. Außerdem wissen wir jetzt, wann
die Core Web Vitals auf den Desktop kommen
: Rollout ist von Februar bis März geplant. Schnell also noch mal in der GSC auf den Performance-Bereich und den zweiten Graphen checken, ob da auch alles grün ist.
Und
Google MyBusiness heißt jetzt Google Business Profile
und kann direkt aus dem SERPs heraus bearbeitet werden.
Aber natürlich gibt es auch Dinge, die wir uns ausführlicher angeschaut haben:
-
Nils fasst das Update der Quality Rater Guidelines zusammen
-
Hannah hat sich mit Video-SEO beschäftigt
-
Justus hat sich die neuen Metriken für Core Web Vitals angesehen, die diskutiert werden
-
Behrend hat sich Gedanken gemacht zu den Vorschlägen vom debugbear, wie man die Core Web Vitals faken könnte
Und natürlich freuen wir uns sehr, dass sich Christoph Dir vorstellt.
Ich selbst verlasse gerade meine Komfortzone von Browser und SublimeText und baue Slides über interne Verlinkung für
meinen Vortrag bei der ARD SEO Konferenz
und natürlich
die SEOkomm
in 10 Tagen.
Jetzt aber rein ins Vergnügen!
|
|
Update der Google Quality Rater Guidelines
|
Falls Du sie noch nicht kennst, dann seien Dir die
Quality Rater Guidelines von Google
ans Herz gelegt. Dabei handelt es sich um Richtlinien für Mitarbeiter von Google, nach denen sie sich bei einer manuellen Qualitätsüberprüfung einer Website richten können. Für alle SEOs ein interessanter Einblick in die Ansichten der Suchmaschinenbetreiber, was eine hohe Qualität ausmacht.
Diese Guidelines werden wie der Algorithmus auch öfter überarbeitet. Eine neue Version erschien am 19. Oktober. Nett von Google, dass sie seit 2019 am Ende des
Guideline-Dokuments
ein Changelog mit den wesentlichen Veränderungen aufführen. Diesmal darin enthalten:
-
Die Your Money Your Life (YLYL) Themen wurden in der Subkategorie 'Groups of people' erweitert.
-
Die Hinweise zur Ermittlung von Informationen zur Reputation von Websites und Content Creators wurde überarbeitet.
-
Der Teil zu 'Lowest Page Quality' wurde überarbeitet und um Beispiele erweitert.
-
Im Zuge dessen wurde auch die Kategorie 'Upsetting-Offensive' überarbeitet um Redundanz mit der Lowest Page Quality Section zu vermeiden.
-
Viele kleinere Änderungen (Updates für Screenshots, URLs, Wording, Beispiele & Typos, etc.)
Die genannten Punkte sind natürlich auch guter Gesprächsstoff in der SEO-Szene. Um einen meiner Kollegen zu zitieren:
"Das ist der Stoff aus dem das nächste Update gemacht wird :D".
In der Tat stecken in den Details wieder einige Aspekte, mit denen sich Website-Betreiber auseinandersetzen sollten, sofern sie es noch nicht getan haben. Eine
Übersicht sämtlicher Changes
wurde von Jennifer Slegg bei der SEMPost veröffentlicht (auch die, die von Google unter den kleinen Änderungen geparkt wurden).
Insgesamt verstärkt sich über viele Änderungen hinweg der Eindruck, dass Google einen noch größeren Fokus auf die Vertrauenswürdigkeit setzt. Zum einen darin wie sie sich definieren lässt. Betreiber einer Website mit Paywall dürfte zum Beispiel diese konkrete Formulierung freuen:
"Logins or paywalls on otherwise trustworthy sites should not be considered untrustworthy, deceptive, or coercive."
Heißt für mich in etwa, dass "Logins oder Paywalls auf sonst vertrauenswürdigen Seiten nicht als vertrauensunwürdig, täuschend oder zwingend betrachtet werden sollten."
Zum anderen aber auch wie sie wahrgenommen werden kann. So geht es bei der Ermittlung der Reputation nicht nur um die Seite selbst, aber auch um deren Content Creators.
"If the creator of the MC is different from the creator of the website, it's important to understand the reputation of the creator as well."
Hier wird explizit betont, dass wenn der Schöpfer des Hauptinhalts einer Seite anderer als der der Website ist, es wichtig ist, auch dessen Reputation zu berücksichtigen. Ein weiterer Wink in Richtung Authentizität & Authorship.
Die größte Überarbeitung fand im Bereich 'Lowest Quality Content" statt. Hier wird neuerdings von Google ausdrücklich festgehalten, dass Websites und Seiten Nutzern mit schädlichem Zweck oder Täuschung über den eigenen Zweck als Content niedrigster Qualität bewertet werden sollte.
"Assess the true purpose of the page. If the website or page has a harmful purpose or is designed to deceive people about its true purpose, it should be rated Lowest."
Darauf folgen genauere Beschreibungen möglicher negativer Zwecke von Seiten mit konkreten Beispielen.
Meine Empfehlung - wenn Dich etwas Englisch nicht abschreckt - lies es Dir in den Guidelines am besten selbst durch!
Zum Abschluss noch ein Gedanke: Noch einmal spannender für uns SEOs wäre es vermutlich, wenn Google seine Ausführungen zum 'Highest Quality Content' ähnlich konkret gestalten würde. Aber was nicht ist, kann ja noch werden ;)
|
|
Videos möchten am liebsten eine eigene Seite
|
Im
Newsletter 52
habe ich bereits einen kurzen Blick auf das VideoObject Markup geworfen und Nora hat in der
Ausgabe 61
von der Einführung des SeekToAction-Markups berichtet. Nun hat Google seine Best Practice
Dokumentation zur Einbindung von Videos
aktualisiert. Das nehme ich als Anstoß, um mir das ganze noch einmal genauer anzuschauen und für Dich zusammenzufassen.
Mit dem Video Markup können Key Moments ausgezeichnet werden - für die wichtigsten Momente kannst Du also bestimmte Sequenzen mit Zeitstempel angeben und jeweils einen eigenen Titel festlegen. So sieht der Nutzer dann eine Art Zeitstrahl mit den wichtigsten Momenten und kann dazwischen navigieren und sich einfach einen Überblick verschaffen. Aber diese tollen Features erhält Dein Video nur, wenn es eine eigene Seite hat. Das Video muss der Hauptcontent der Seite sein. Nur dann kann es beispielsweise in einer Video-Box auf der SERP ranken.
Google gibt Best Practices an, damit Dein Video auf der SERP und bei Discover ranken kann:
-
Das Video muss im Netz verfügbar sein - das bedeutet, dass es auf einer gültigen URL zu finden sein muss
-
Wenn Dein Video auf einer anderen Seite hochgeladen wurde muss sichergestellt sein, dass Google sowohl auf Deine Seite zugreifen darf, als auch auf die, auf der das Video liegt
-
Das Video muss außerdem sichtbar und einfach erreichbar sein - muss der Nutzer sich erst zu Deinem Video durchklicken oder scrollen, findet Google es eventuell nicht
-
Hinterlege das VideoObject Markup - diese strukturierten Daten sind benötigt für Features wie "Live Video" oder "Key Moments", geben über die Description aber auch genaue Informationen an Google, worum es in dem Video geht
-
Lege ein qualitativ hochwertiges Thumbnail fest (mindestens 60 x 30 Pixel) oder erlaube Google, dies zu tun
-
Erstelle Video Sitemaps um Google deutlich zu zeigen, wo sich Videos befinden und gib dort mit Hilfe von Metadaten ebenfalls an, worum es in dem Video geht
-
Das Video muss in einem Format sein, dass Google öffnen kann - eine entsprechende Liste an Formaten befindet sich in der Doku
Was bringt Dir aber der ganze Aufwand? Wenn Google das Video sehen und verstehen kann, hast Du die Chance auf:
-
Eine kurze Video-Vorschau anstatt nur eines Bildes - mit dem max-video-preview robots meta tag kannst Du die maximale Dauer einer solchen Preview eingrenzen.
-
Wenn Google den Inhalt des Videos versteht, kann dieser zu mehr Suchanfragen passend ausgespielt werden...
-
...und Google kann selbst Key Moments erstellen, damit Nutzer einfacher zu relevanten Punkten im Video navigieren können
Willst Du sichergehen, dass keine Key Moments für Dein Video angezeigt werden, kannst Du das nosnippet meta tag verwenden.
Nutzt Du Videos schon, um Deinen Content anzureichern? Wenn ja, prüfe einmal, ob die Einbindung den Best Practices von Google entspricht.
|
|
Neue Web Vitals Metriken sind in Arbeit
|
Die Web Vitals bekommen Zuwachs! In der
Keynote zum Chrome Developer Summit 2021
hat Google die bisherigen Erfolge seit Einführung der
Core Web Vitals
Revue passieren lassen:
Im Vergleich zum Vorjahr erreichen 20% mehr Seitenaufrufe im Chrome Browser die von Google empfohlenen CWV Werte, damit werden sie nun von insgesamt 60% aller Seitenaufrufe und
33% aller Websites
erreicht.
Houssein Djirdeh
stellt das in der Keynote als direkte Folge der Einführung der Core Web Vitals dar und das ist zumindest plausibel: Mit einem relativ einfach zugänglichen Set an Messwerten, die auch Nicht-ExpertInnen erheben können und deren Wichtigkeit über einen langen Zeitraum stark beworben wird, wächst der Optimierungsdruck auf große und zentrale Plattformen.
Das sind einerseits sehr große Websites wie Facebook, Reddit und Co, aber vor allem auch Content Management Systeme wie Wordpress, Website-Baukästen wie Jimdo, oder Frameworks wie next.js und React. Die Optimierung dieser Systeme kann sich gleichzeitig positiv auf alle Websites auswirken, die von ihnen abhängig sind. Die notwendige Priorität für die Investition in Performance-Optimierung wird dabei v. a. erreicht, dass möglichst viele Menschen einfachen Zugang zu guten, aussagekräftigen Messwerten haben und Potenzial erkennen können.
Der Katalog der Web Vitals, der bislang
CLS
,
FCP
,
FID
,
LCP
und
TTFB
umfasst, soll in Zukunft wachsen und zwei weitere UX Qualitäten messen:
Responsiveness
: Wie schnell reagiert die Website auf User-Interaktionen (nicht nur bei der ersten Interaktion wie beim First Input Delay / FID)
Smoothness
: Wie flüssig sind Animationen und Scrolling?
Erste Codebeispiele zur Messung sind bereits verfügbar, komplizierte Namen und die passende Abkürzung für die neuen Messwerte gibt es aber noch nicht.
Mit Blick auf die Core Web Vitals wird sich wahrscheinlich nichts ändern und sie werden weiterhin im Zentrum der allgemeinen Aufmerksamkeit stehen, denn sie spielen für die User Experience eine noch wichtigere Rolle. Solange erst 33% aller Websites die CVW Zielmarke erreichen, gibt es hier ohnehin noch genug zu tun.\
Wer noch einen Grund mehr sucht, mit der Optimierung durchzustarten, findet ihn vielleicht in der Ankündigung, dass die Page Experience
ab Februar 2022 auch für Desktop-Rankings eine Rolle spielt
.
Wir beschäftigen uns für unsere Kunden jeden Tag mit Performance-Optimierung. Wenn Du dabei auch Unterstützung gebrauchen, melde Dich bei uns, zum Beispiel indem Du auf diese E-Mail antwortest.
|
|
Bringt sie nicht auf dumme Ideen...
|
Die Core Web Vitals wurden von Google ins Leben gerufen, weil bisherige Metriken zu weit weg von dem tatsächlichen Nutzererlebnis waren. FCP, TTFB visually complete, DOM content loaded und wie sie alle heißen haben alle das Problem, das sie nur wenig mit der Wahrnehmung der Nutzer zu tun haben.
Eine Time To First Byte von wenigen Millisekunden für quasi leeres Template HTML und einem nichtssagenden Ladekringel der sich 18 Sekunden um sich selbst dreht, während das JavaScript die eigentliche Seite lädt und schwupps sind alle Pagespeed Metriken auf grün. Besonders toll für den Nutzer ist es aber vermutlich eher nicht.
So einfach ist es mit den Core Web Vitals nicht mehr. Aber es sind immernoch automatisierte Metriken.
Debugbear zeigt uns, dass auch die Core Web Vitals Optimierung ohne jeglichen Vorteil für den Nutzer durchgezogen werden können
. Probleme bei CLS und LCP sind mittels transparenter Elemente leicht zu manipulieren. Zum Beispiel zählt ein Element mit einer (für Nutzer nicht sichtbaren) Transparenz nicht als sichtbar für die Wertung des LCP, wenn man es nur "richtig" konfiguriert.
Eine FID-Optimierung ist dagegen nur schwer zu simulieren, ohne das der Nutzer auch wirklich mehr Reaktivität bekommt, aber es gibt ein paar Tricks mit iframes.
Bedeutet das, dass Google die aktuellen Core Web Vitals jetzt in die Ablage rund überführen kann und sich fix neue Metriken ausdenken muss oder LCP und CLS zumindest massiv überarbeiten sollte? Ich denke nicht wirklich, denn die denn bislang ist der "Hack" fast genauso aufwändig wie eine sinnvolle Lösung.
Die von Debugbear vorgeschlagenen Tricks sind relativ aufwändig. Hier hätte der Entwickler in der Regel wahrscheinlich mehr Aufwand, als bei einer tatsächlichen Optimierung. Hinzu kommt, dass entgegen anderslautender Gerüchte, Entwickler vornehmlich gute Webseiten bauen möchten anstatt das System zu überlisten. Und in der Vergangenheit haben eher falsch definierte Anforderungen und mangelnde Kapazitäten zu dem Wildwuchs geführt, der Google bewogen hat die Core Web Vitals zu forcieren.
Und falls sich doch der ein oder andere misanthropische Webentwicker-Grinch findet, der Spaß daran hat, dem sei gesagt, dass die die Problematik bereits bekannt ist und sich Teams von Chromium schon Gedanken darüber machen wie man damit umgeht. Schließlich hat Google häufig genug betont, dass die Core Web Vitals nicht statisch sind.
Falls Du doch versucht bist, solche Hacks zu Testen, fühle Dich freundlich aber bestimmt daran erinnert, dass eine gute Position bei Google allein keinen Erfolg bringt, wenn die Nutzer mit dem Ergebnis nicht glücklich sind.
|
|
Neuer Wingmensch im Anflug
|
Moin, ich bin Christoph, neuer Consultant bei Wingmen und ich freue mich darauf, für spannende Projekte klare Flugziele zu finden und zu erreichen.
In den vergangenen Jahren hatte ich das Glück,10 Jahre eine eigene Online Marketing Agentur aufzubauen, dabei lernte ich neben allen fachlichen Themen auch, wie wichtig es ist, Budget und Ressourcen prioritär und effizient einzusetzen. Mit meinem fachlichen Schwerpunkt SEO durfte ich bisher bei kleineren und größeren B2B sowie B2C Projekten unterstützen, wobei ich in meiner letzten Station als Head of Online Marketing auch 4 Jahre in die Themen wie E-Mail Marketing und PPC Marketing reinschnuppern durfte.
Ich freue mich auf alle neuen Herausforderungen bei Wingmen und stehe für Deine Projekte auf der Startbahn bereit.
|
|
|
Fragen? Immer gerne fragen!
|
Wir sind für Dich da.
Schreib uns gern jederzeit
eine E-Mail an
[email protected]
oder
ruf uns einfach kurz an:
+49 40 22868040
Bis bald,
Deine Wingmen
|
|
Anckelmannsplatz 1, 20537 Hamburg, Germany
|
|