Wirklich wahres Wingmen SEO Wissen fĂŒr wache Webmarketer #164
Wingmen Online Marketing GmbH Logo
Andreas Röne
Andreas Röne
Consultant
đŸ«” Ene mene bu, der SEO der bist Du!

Sommer, Sonne, Sonnenschein... Man sollte denken, das ist die beste Jahreszeit, die Temperaturen endlich wieder im Bereich, in dem wir (selbst in Hamburg) mal keine Jacke mehr benötigen, wenn wir das Haus verlassen. Doch oft vergessen wir die Urlaube und krankheitsbedingten AusfĂ€lle unserer Kollegen und dann fallen die offenen Aufgaben auf einmal auf đŸ«” Dich zurĂŒck.

Geht es Dir Ă€hnlich? Wie gehst Du damit um? Selbst nach meiner schon recht langen Karriere besitze ich immer noch die "Ärmel hoch"-MentalitĂ€t. Und das finde ich, macht ein gesundes Miteinander unter Kollegen aus. Das ist vielleicht einer der GrĂŒnde, weshalb ich so gerne ein Wingmensch bin. Denn ich weiß, dass meine Kollegen genauso fĂŒr mich einspringen.

Aber nun machen wir den Sprung zu unseren heutigen Themen:

  • Philipp b(l)ockt mit der robots.txt

  • Matt erklĂ€rt Dir, wie Du ohne Panik die CWVs bis MĂ€rz 2024 rockst

  • Johan zeigt Dir mittelmĂ€ĂŸige Matrizen

  • Behrend klĂ€rt Dich auf, was Du ggf. bei Deinem Consent Management prĂŒfen bzw. beachten solltest

  • Und ich habe mir einmal das Thema "Personalisierte Inhalte" vorgenommen

Und damit: WĂŒnschen wir Dir eine wunderbare Woche!

Deine Wingmenschen

Was wir gelesen haben
 Philipp Götza
Philipp Götza
Junior Consultant
Blocked by robots.txt: No information is available for this article

Na, bist Du da aufmerksam geworden?

Ich bin auf diesen Artikel "The Story of Blocking 2 High-Ranking Pages With Robots.txt" von Ahrefs gestoßen. Hier hat Patrick Stox getestet, was passiert, wenn ein paar URLs „versehentlich" in der robots.txt blockiert werden.

Vor ein paar Jahren hat sich auch John MĂŒller zu einem eng verwandten Thema auf Twitter geĂ€ußert. Er schrieb, dass Google auch, nachdem ein Inhalt nicht mehr auf einer Seite zu finden ist, diese trotzdem fĂŒr besagten Inhalt in den Suchergebnissen anzeigen kann. Google weiß also in einigen FĂ€llen auch nach dem Entfernen von Inhalten noch, worum es auf dieser Seite geht.

Wenn eine URL aber durch die robots.txt blockiert ist, sieht Google den (entfernten) Inhalt nicht und diese Hypothese wurde getestet:

  "Was passiert mit meinen Rankings und dem Traffic, wenn Google meine Inhalte nicht crawlen kann/darf?"

Auswirkungen auf die Rankings und Traffic

In dem Experiment von Ahrefs ranken beide URLs nach 5 Monaten immer noch fĂŒr viele Begriffe inklusive neuer Rankings, die in der Zeit hinzugekommen sind. Insgesamt wurde deutlich weniger Traffic eingebĂŒĂŸt, als vorher gedacht.

Zu sehen ist ein Graph, auf dem der geschÀtzte Organic Traffic abgetragen ist. Es gibt eine Kennzeichnung, wann die URL blockiert und wann die Blockierung aufgehoben wurde. Erkennbar ist ein moderater Verlust, ohne gravierende Schwankungen nach unten.

Wie zu erwarten, wurden die URLs in den Suchergebnissen ohne Title und Meta Description angezeigt. Die Google Search Console hat den "Fehler" natĂŒrlich mit dem Hinweis berichtet, dass die URLs indexiert, aber durch die robots.txt blockiert seien.

Was auch erkennbar ist: Die Impressions haben nicht deutlich verloren, die Klicks hingegen schon. 

Zu sehen ist eine Auswertung der Klicks und Impressions der Beispiel-URL. Der Zeitraum ist auf 12 Monate eingestellt und man kann deutlich erkennen, dass die Klicks deutlich geschrumpft, die Impressions grĂ¶ĂŸtenteils aber stabil geblieben sind.

Dadurch, dass kein richtiges Snippet mehr angezeigt wurde, ist das auch logisch. Wer klickt schon gerne auf ein nacktes Suchergebnis.

Was wir daraus lernen können und bedenken sollten

Es ist ein kleiner Test von einer autoritÀren Seite aus der SEO-Branche. Die Erkenntnisse lassen sich daher auf keinen Fall verallgemeinern. Eine spannende Frage wÀre zudem:

Wie verÀndert sich das Crawlverhalten nachdem die Sperre aufgehoben wurde?

Eine Legende besagt, dass Google dann besonders gierig sei, sobald die Blockierung aufgelöst wird. Eine andere Legende wiederum behauptet, dass eine (kurzzeitige) Blockierung in der robots.txt helfen könne, um Indexierungsprobleme zu beheben.

So etwas auszuprobieren ist aber mit gewissen Risiken verbunden und sollte daher abgewogen werden. Johan hat hier berichtet, wie Du den Wert eines Risikos oder einer Chance bestimmen kannst.

Beim Thema SEO spielt außerdem das Snippet eine weniger wichtige Rolle, als es in anderen Branchen der Fall ist. Merkt man vielleicht auch daran, dass Du den Artikel bis hierhin gelesen hast, obwohl die Überschrift keinen richtigen Inhalt hatte und ihre Aufgabe doch vor allem ist, zum Lesen zu motivieren.

Der Impact auf die Klick-Performance kann in anderen FĂ€llen deutlich grĂ¶ĂŸer sein. Beispielsweise im E-Commerce sind bei so etwas grĂ¶ĂŸere Auswirkungen zu erwarten, da hier ein richtiges Snippet inklusive Bild große Wirkung auf die CTR hat.

Der Test war also interessant, die Aussagekraft darf aber nicht ĂŒberbewertet werden.

Matthias PĂŒlz
Matthias PĂŒlz
Junior Consultant
CWVs-Panik v2.0 in 3
 2
 1


Google hat vor einer Weile angekĂŒndigt, dass die Metrik FID (First Input Delay) zum MĂ€rz 2024 durch die Metrik INP (Interaction to Next Paint) ersetzt wird.

Eine nachvollziehbare Entscheidung, denn im Gegensatz zum FID, der lediglich die erste Interaktion auf einer Seite misst, bezieht INP alle Interaktionen wÀhrend des Besuchs einer Website mit ein (Mehr dazu in Flos Artikel "Core Web Vital Daumenschrauben werden noch enger gezogen" in der Newsletter-Ausgabe SEO-Wonnemonat Mai).

Seitdem findet sich in der Google Search Console beim Klick auf die Core Web Vitals der mahnende Hinweis

"Im MĂ€rz 2024 wird FID von INP als Teil von Core Web Vitals ersetzt. Informiere dich mit der neuen Tabelle mit INP-Problemen ĂŒber die Leistungen deiner Website"

oder

"Prepare for changes coming in March 2024. Check out the table below to ensure your site doesn't have INP issues":

Prepare for changes coming in March 2024. Check out the table below to ensure your site doesn't have INP issues.

MĂ€rz 2024 also... Na gut, das schien bislang weit weg. Ein Datum in ferner Zukunft. Nichts, worĂŒber man sich unbedingt jetzt schon Gedanken machen muss... Und somit schnell wieder aus den Köpfen verschwunden – bis vor ein paar Tagen E-Mails mit erkannten Problemen aus der GSC in viele PostfĂ€cher flatterten. Die Folge (um meine Kollegin Saskia zu zitieren, wenn auch in anderem Zusammenhang):

"Panik, Panik, Panik!"

Core Web Vitals INP issues detected on your sites

So sieht diese furchteinflĂ¶ĂŸende E-Mail aus:

Google Search Console mail: "Core Web Vitals INP issues detected on your sites. Google is transitioning to a new metric measure the responsiveness of sites, Interaction to Next Paint (INP), which will replace FID as a Core Web Vital in March 2024. Search Console has detected your sites have INP issues in the following properties. Click a property in the following list to open the INP report for that property (max 10 properties shown):

Inhaltlich steht dort Folgendes geschrieben:

Hey Du, Deine INP-Werte sehen aktuell noch nicht aus, wie sie idealerweise sein sollten. Wir möchten Dich einfach einmal nett daran erinnern, das im Auge zu behalten und Dich bald um das Thema zu kĂŒmmern, denn Du weißt ja: Ab MĂ€rz 2024 ersetzt INP die Metrik FID. Betroffene URLs findest Du bei uns in der Search Console.

Was jedoch die meisten lesen:

Oh mein Gott! Du musst Dich unbedingt sofort um Deinen INP-Wert kĂŒmmern, denn wenn Du es nicht tust, wird Google Deine Seite auf der Stelle packen und kopfĂŒber in den Boden rammen. Organischen Traffic oder ein halbwegs brauchbares Ranking kannst Du dann vergessen – fĂŒr immer! Ahhhhhhhhhhhhhhhhhhh!

Was Du jetzt tun solltest (oder auch nicht)

Unser Tipp an dieser Stelle:

Erst einmal tief durchatmen... Ja, ein guter INP-Wert ist schön und es ist durchaus sinnvoll, das Thema lieber frĂŒher als zu spĂ€t anzugehen. Trotzdem solltest Du jetzt nicht in Panik verfallen. Du hast noch ĂŒber ein halbes Jahr Zeit und auch dann wird Dich Google nicht ins Niemandsland schießen, nur weil Dein INP-Wert nicht perfekt ist. Andere Faktoren wie Relevanz und hochwertiger Content sind nach wie vor wichtiger als die Core Web Vitals.

Falls Du Dich jedoch trotzdem jetzt schon auf die anstehende INP-EinfĂŒhrung vorbereiten oder Deine Core Web Vitals ohnehin schon lĂ€nger aufpolieren und in den grĂŒnen Bereich bringen wolltest, melde Dich gerne bei uns. Wir helfen Dir dabei! Denn auch wenn die Core Web Vitals aus SEO-Sicht eher das ZĂŒnglein an der Waage sind: Schlechte Ladezeiten nerven und haben außerdem einen nachweislich negativen Einfluss auf Deine Conversations. Also wenn das kein Grund ist, die Performance etwas nach oben zu schrauben!

Johan von HĂŒlsen
Johan von HĂŒlsen
GeschĂ€ftsfĂŒhrender Gesellschafter
MittelmĂ€ĂŸige Matrizen

Auf LinkedIn ging eine kleine Matrix von Rodrigo S. herum.

Und ich mag es ja, Informationen in eine Matrix zu verpacken (und bin damit nicht allein bei uns). Mehr als zwei Dimensionen kriege ich immer schwer verarbeitet. Aber das Beispiel ist zum GlĂŒck auch nur eine 4-Felder Matrix + Farbcode. KomplexitĂ€t ist also noch verarbeitbar.

Daher hab ich mir das nÀher angeschaut:

Die Darstellung enthĂ€lt eine Auflistung möglicher Maßnahmen auf der linken Seite und eine Matrix auf der rechten Seite. Die Maßnahmen werden farblich in Kategorien eingeteilt. In der Matrix werden diese dann als Kugeln eingezeichnet und in einem der vier Felder untergebracht. Unterschieden wird in Implementationsaufwand (X-Achse) und möglichem Impact (Y-Achse). Ist eine Kugel oben rechts, bedeutet das, dass diese Maßnahme einfach zu implementieren ist und einen großen Einfluss haben könnte.

Wir bewerten die Todos also nach Impact und Aufwand. Das ist naheliegend und weit verbreitet. Und dann suchen wir uns diejenigen heraus, die wir als Quick Win oder Long Win umsetzen wollen.

Ein paar Dinge mĂŒssen wir im Kopf jonglieren. Beispielsweise mögliche AbhĂ€ngigkeiten.

GrundsĂ€tzlich stört mich nur eine Kleinigkeit: Man ignoriert schnell Low Impact, easy to implement. Die 13 wĂ€re so ein Ding: Warum der Impact der Robots.txt hier Low ist, erschließt sich mir nicht. Das ist auch nicht mein Punkt: Aber diese Dinge addieren sich hĂ€ufig zu einem insgesamt relativ hohen Impact bei geringem Aufwand.

Vielmehr fand ich allerdings die Details im Beispiel bemerkenswert. Denn hier sehen wir, dass die Bewertungen massiv abhÀngig von den eigenen EinschÀtzungen sind. Matrizen wie diese suggerieren ObjektivitÀt. Sie sind aber weit davon entfernt.

Frag doch mal bei Deiner IT, ob Low text-HTML ratios wirklich easy to implement sind. Ich kenne kein Team, dass das mal eben hinbekommen wĂŒrde (und es dann noch nicht gemacht hat).

Und dann kannst Du auch gleich noch mal 10 SEOs fragen und mal schauen, ob einer sagen wĂŒrde, dass Low text-HTML ratios einen höheren Impact als Missing ALT Attributes oder Dual Headings hat.

Wenn Du Dir die Positionierung der einzelnen Punkte ansiehst, dann findest Du sicher auch noch mal mehr Punkte, die Dich wundern.

Und wenn wir damit fertig sind, dann achten wir nochmal kurz auf die Farbgebung: Die suggeriert, dass wir alle Punkte im dunkelgrauen Bereich umsetzen wollen. Und das wiederum bedeutet: Lasst uns Short-Win nach Short-Win nach Short-Win umsetzen. Das lĂ€sst keinen Raum fĂŒr strategische Initiativen, langfristige Orientierung und Umsetzung einer Strategie.

Wenn wir uns die Top-5 ansehen, dann wĂŒrde ich davon – unter der Annahme, dass es sich um eine mittelgroße Seite handelt – lediglich die Broken Images unterschreiben. FĂŒr sprechende URLs (Keyword Slugs) wĂŒrde ich nur in AusnahmefĂ€llen URLs anpassen. Blog tag pages als Low Effort haben schon lange keinen High Impact mehr. Die HTML Sitemap kann helfen, aber ist oft nur ein Workaround fĂŒr strukturell schlechte interne Verlinkung.

Wie also könnte die Matrix bei der Priorisierung helfen?

  1. Impact und Aufwand objektivieren

  2. Entscheiden, was das Ziel ist: Maximaler Impact? Minimaler Aufwand? Maximale Effizienz der eingesetzten Ressourcen? Kurzfristige oder langfristige Ziele?

  3. Ressourcen-Limits unterscheiden sich vermutlich zwischen Technik, Content, etc. Daher ist die Unterscheidung wertvoll, sollte aber auch mit eigenen PrioritÀten einhergehen

Wir mĂŒssen Aufgaben nach Aufwand und Ertrag priorisieren, aber die Lösung ist dann doch nicht ganz so eindimensional, wie in der Grafik dargestellt.

Behrend von HĂŒlsen
Behrend von HĂŒlsen
Consultant
Consent Management Consolidation incoming

Bislang haben viele Datenkraken das Thema Consent Management weitgehend ignoriert. Abgesehen von Empfehlungen zur Implementierung und halbherzigen Forderungen danach, das Consent bitteschön zu beachten sei, haben sowohl Marktrisiken wie Google und Meta, als auch kleinere Anbieter fĂŒr Online-Werbung, wie Criteo, sich darauf ausgeruht, dass die Webseitenbetreiber sich um das Consent Management kĂŒmmern mĂŒssen. Frei nach dem Motto "NatĂŒrlich halten sich alle unsere Partner daran, uns nur Daten zusenden, wenn die Zustimmung des Nutzers vorliegt 😉". Außerdem hofft man auf das European Union-U.S. Data Privacy Framework (die Neuauflage von Privacy Shield (die Neuauflage von Safe Harbour)), das langsam tatsĂ€chlich Form annimmt.

Nach Beschwerden durch NOYB ("None of Your Business", das ist die NGO von Max Schrems (ja, der aus Schrems I und Schrems II (das sind die Urteile die Privacy Harbour und Safe Shield gekippt haben (ich mein Safe Harbour und Privacy Shield))) hat die französische Datenschutzbehörde nun ein Exempel statuiert: Criteo darf eine Strafe in Höhe von 40.000.000 € zahlen und sich in Zukunft nicht mehr einfach so darauf verlassen, dass schon irgendwer Consent eingeholt haben wird, bevor Nutzerdaten an Criteo gesendet werden. Das bedeutet aber nicht, dass Criteo etwas an der Datenerfassung selbst Ă€ndert. Es sind vielmehr vertragliche Anpassungen, die die Verantwortung fĂŒr das Consent Management den Partnern wieder zuschieben.

Google hat vorauseilend damit begonnen sicherzustellen, dass man ihnen Ähnliches nicht so leicht vorwerfen kann: FĂŒr einzelne Tracking-Requests nachzuweisen, dass es Consent gab, ist technisch kaum abbildbar. Aber in Zukunft mĂŒssen Publisher, die Werbeanzeigen via Google Ads ausspielen, ein Consent Management System nutzen, das von Google lizenziert wurde.

Googles Entscheidung hat Dank seiner Marktmacht möglicherweise große Auswirkungen:

  • Domains, die von (Google-)Ads leben, mĂŒssen sich an Googles Liste orientieren. Kleinere CMP-Anbieter oder gar Eigenentwicklungen sind (und haben) damit ein Problem.

  • Consent Management Plattformen mĂŒssen sich quasi bei Google um einen Platz auf der Liste  bewerben. Diese AbhĂ€ngigkeit könnte Google  nutzen, um die eigene Marktposition weiter zu stĂ€rken. Zyniker könnten sogar vermuten, dass auf lizenzierungswillige CMPs Druck ausgeĂŒbt wird, ihren Code nicht PrivatsphĂ€re-freundlicher, sondern Google-freundlicher zu gestalten. Was genau da vermutet wird, hĂ€ngt davon ab, wie zynisch der jeweilige Zyniker gegenĂŒber Google und der Online Werbebranche ist... 

Das TCF der IAB wird dadurch noch weiter gestĂ€rkt und von Google als Voraussetzung fĂŒr Google Ads etabliert. Ja genau, das TCF, das von der belgischen Datenschutzbehörde dafĂŒr abgewatscht wurde, dass es personenbezogene Daten ĂŒbertrĂ€gt, die es eigentlich schĂŒtzen soll...

Andreas Röne
Andreas Röne
Consultant
Personalisierte Inhalte, aber richtig

Ich möchte Dir gerne ĂŒber einige Tipps zur Personalisierung von Inhalten auf Webseiten berichten, die von John MĂŒller gegeben wurden. Es geht darum, dass der Googlebot die gleichen Inhalte sehen sollte wie die Nutzer aus der Region, aus der Google crawlt.

Personalisierte Inhalte auf Webseiten können den Besuchern einen Mehrwert bieten, besonders wenn sie bereits die Seite besucht haben und passende Angebote sehen. Ich finde es immer nĂŒtzlich, wenn mir beim erneuten Besuch einer Webseite relevante Informationen prĂ€sentiert werden.

Allerdings kann die Personalisierung von Inhalten in Bezug auf SEO problematisch sein. Wenn manche Besucher andere Inhalte sehen als der Googlebot, könnte dies von Google als Cloaking angesehen werden. Dies kann dazu fĂŒhren, dass bestimmte Inhalte von Google nicht erfasst und indexiert werden. Oder die Website weitere "Manuelle Maßnahmen" erfĂ€hrt. Das ist natĂŒrlich etwas, das wir unbedingt vermeiden mĂŒssen. Sollte Deine Website also personalisierte Inhalte auf öffentlich zugĂ€nglichen Seiten ausspielen, so prĂŒfe auf jeden Fall, welche Inhalte ein Googlebot sieht und nach welchen Kriterien.

John MĂŒller hat auf Twitter einige wichtige Punkte genannt, die wir bei der Personalisierung von Inhalten in Bezug auf SEO beachten sollten. Der Googlebot sollte grundsĂ€tzlich die gleichen Inhalte sehen wie Besucher aus der Region, aus der er kommt. In den meisten FĂ€llen sind das die USA. Es ist also wichtig sicherzustellen, dass der Googlebot die Inhalte sieht, die fĂŒr diese Besucher relevant sind. Dazu hat Google eine Liste der aktuell verwendeten IP-Adressen publiziert, die automatisch aktualisiert und im JSON-Format bereitgestellt werden. Diese Liste können wir natĂŒrlich automatisch und regelmĂ€ĂŸig abgleichen. Dabei dĂŒrfen wir die IPv6-Adressen nicht vergessen, wenn unser Server auch mit einer solchen IPv6-Adresse arbeitet. Wie Du das testen kannst, habe ich in diesem Newsletter-Artikel schon einmal beschrieben.

Ein weiterer wichtiger Punkt ist, dass personalisierte Inhalte fĂŒr eingeloggte Nutzer fĂŒr Google keine Rolle spielen, da Google sich nicht einloggt. Das bedeutet, dass wir uns bei der Personalisierung auf die Besucher konzentrieren sollten, die nicht eingeloggt sind. Ein weiterer wichtiger Punkt sind Cookies: Google-Bots akzeptieren und senden keine Cookie-Informationen. Achte also darauf, wie Deine Website ohne Cookies funktioniert und welche Inhalte ausgespielt werden.

John MĂŒller von Google hat außerdem empfohlen, personalisierte Inhalte nicht auf zusĂ€tzlichen URLs anzuzeigen, um die KomplexitĂ€t zu reduzieren. Es ist wichtig, dass die Inhalte auf den Landing Pages fĂŒr die Suchergebnisse gleichwertig sind. Das bedeutet, dass der Inhalt auf den verschiedenen URLs nicht zu unterschiedlich sein sollte.

Diese Tipps von John MĂŒller sind sehr hilfreich, um sicherzustellen, dass personalisierte Inhalte sowohl den Besuchern als auch den Suchmaschinen gerecht werden. Es ist wichtig, die Balance zu finden, um sowohl ein gutes Nutzererlebnis zu bieten als auch die SEO-Anforderungen zu erfĂŒllen.

Vorherige AusgabeNĂ€chste Ausgabe
 
Fragen? Immer gerne fragen!
Wir sind fĂŒr Dich da.
Schreib uns gern jederzeit
eine E-Mail an kontakt@wngmn.de oder
ruf uns einfach kurz an: +49 40 22868040

Bis bald,
Deine Wingmen
Anckelmannsplatz 1, 20537 Hamburg, Germany
Wingmen Online Marketing GmbH Logo