Wirklich wahres Wingmen SEO Wissen fĂŒr wache Webmarketer #167
Wingmen Online Marketing GmbH Logo
Nora Tiedemann
Nora Tiedemann
Junior Consultant
đŸ™‹â€â™€ïž Hi (SEO-)Barbie

Ich freue mich schon seit letztem Jahr auf den aktuellen Barbie-Film, was jeder weiß, der Hannahs und meinen Contentixx-Vortrag ĂŒber strukturierte Daten kennt. Hier habe ich nĂ€mlich letzten Sommer ein kleines Easter-Egg versteckt. 👀 Diese Freude ist mit dem ersten Trailer Ende 2022 und der Analogie zu Stanley Kubricks Werk "2001: Odyssee im Weltraum" nur noch gestiegen.

Am Wochenende habe ich den Film geschaut und fand ihn wirklich großartig. Es ist eine gelungene Gesellschaftssatire mit viel Humor. Vielleicht ein bisschen ĂŒbertrieben und auf dem schmalen Grat zur Albernheit. Aber auch ernst und vor allem mit sehr viel Liebe zu kleinen Details gemacht. Ich fand den Film toll und kann ihn Dir nur ans Herz legen, möchte hier aber nicht spoilern.

Weil Barbie bekanntlich alles sein kann, habe ich diese Woche fĂŒr Dich:

  • Einen Ausflug in den verwirrenden Dschungel der URL-Strukturen, aber keine Sorge, Guide-Barbie Anita steht Dir zu Seite

  • Außerdem zeigt Dir Strategie-Barbie Nils, wie Du PrioritĂ€ten setzen kannst

  • Zeitreise-Barbie Philipp reist mit Dir in die Vergangenheit und gibt wertvolle Tipps zur internen Verlinkung

  • Danach wirfst Du einen Blick in die Zukunft mit Glaskugel-Barbie Johan in mögliche Twitter-Migrationen 

  • Und Spy-Barbie Saskia nimmt Dich mit in die verbotene Welt des Cloakings

Viel Spaß beim Lesen! 💖

Deine Wingmenschen

P.S. Die SERP zum Keyword "barbie" ist ĂŒbrigens auch sehr schön 😁

Was wir gelesen haben
Anita Böhm
Anita Böhm
Consultant
Best Practices fĂŒr Deine URL Struktur

Google ist mal wieder fleißig und hat eine ihrer Dokumentationen aktualisiert. Die URL Structure Guidelines spezifizieren, welche Zeichen seitens Google in URLs unterstĂŒtzt werden – und welche nicht.

Status Quo checken, keine voreiligen SchlĂŒsse ziehen

Ein guter Zeitpunkt also, um einen Abgleich mit dem Status Quo Deiner Website zu fahren – und falls erforderlich, ĂŒber Anpassungen nachzudenken.

Vorweg aber erstmal der Hinweis: In der Regel empfehlen wir nicht, einfach nur aus mehr oder weniger Ă€sthetischen GrĂŒnden an einer bestehenden URL-Struktur rumzuschrauben (auch wenn wir große Fans schöner und sprechender URLs sind).

Denn den Rattenschwanz an Folgen hinterher zu ziehen lohnt sich nur, wenn es wirklich gute GrĂŒnde fĂŒr die Änderungen an den URLs gibt. Auch wenn es fĂŒr Nutzer*innen kaum einen Unterschied macht, solange wir richtig weiterleiten: Google muss jedes Mal, wenn eine URL weitergeleitet wird, dies erstmal verstehen, verarbeiten und akzeptieren, indem die URL in der SERP ausgetauscht wird und die Rankings der alten auf die neue Adresse wandern.

Dabei besteht leider immer ein kleines Risiko, die Performance nicht 1:1 ĂŒbertragen und mitnehmen zu können. Außerdem wollen wir Google ja nicht unnötig mit solchen Prozessen beschĂ€ftigen. Obendrein wird es irgendwann ziemlich unĂŒbersichtlich, was denn nun wie lange wohin weiterleitet und bis wann dies so sein soll (damit hatte sich Jolle ja unlĂ€ngst beschĂ€ftigt) – vor allem, wenn sich dabei Ketten von Redirects entwickeln.

URL Best Practices von Google

Aber zurĂŒck zur URL Structure Guideline von Google.

"Google supports URLs as defined by RFC 3986. Characters defined by the standard as reserved must be percent encoded. Unreserved ASCII characters may be left in the non-encoded form. Additionally, characters in the non-ASCII range should be UTF-8 encoded."

Dieser Teil ist wichtig, weil er die technische Basis definiert, auf der Google arbeitet.

Interessant ist hier ĂŒbrigens der Unterschied zur deutschen Variante – da ist das Intro eher wischi waschi:

"Die URL-Struktur einer Website sollte so einfach wie möglich gehalten sein.

Organisiere deine Inhalte am besten so, dass URLs logisch und in einer Weise aufgebaut sind, die Nutzer lesen und verstehen können."

Wie so oft lohnt es sich also, sich primÀr auf die englischsprachige Version der Doku zu konzentrieren.

Darauf folgen eine Reihe von Empfehlungen, die auch, was sehr hilfreich ist, mit Beispielen angereichert sind. Und auch oftmals einen Zusatz wie "wenn möglich" haben. Also wenn etwas nicht machbar ist (oder ĂŒbertrieben aufwĂ€ndig zu implementieren) – kein Ding, davon geht die Welt nicht unter.

Ich habe die Liste an Empfehlungen von Google mit unseren Regeln fĂŒr URLs abgeglichen und konsolidiert.

Unser URL-Struktur Cheat Sheet

Wir empfehlen, alle URLs möglichst kurz, sprechend, zeitlos und analysefreundlich zu gestalten. Je besser dies gelingt, umso nachhaltiger, langlebiger und skalierbarer ist die Struktur.

Folgende Vorgaben sollten unserer Empfehlung nach erfĂŒllt sein:

  • Einhaltung der "1 Inhalt = 1 URL"-Regel
  • Nutzung erlaubter Zeichen
    • Buchstaben: abcdefghijklmnopqrstuvwxyz
    • Ziffern: 0123456789
    • Trenner: 
      • - Hyphen fĂŒr Worte
      • / Slash fĂŒr Verzeichnisse
      • . Punkt fĂŒr Dateiendungen
    • Sprungmarken: # Raute
    • Parameter:
      • ? Fragezeichen
      • = Gleichheitszeichen
      • & KaufmĂ€nnisches Und
    • Sonstiges: , Komma
  • Verzicht auf Großbuchstaben
  • Umwandlung von 
    • Ă€, ĂŒ, ö und ß zu zu ae, ue, oe und ss
    • Sonderzeichen wie : Doppelpunkt oder ! Ausrufezeichen zu - Hyphen
  • Reduktion mehrerer aufeinanderfolgender - Hyphen auf 1
  • Gestaltung von Parametern möglichst sprechend

Das deckt sich mit den Empfehlungen aus den URL Structure Best Practices von Google. In den Guidelines empfiehlt Google:

  • Verwendung einfacher und beschreibender Wörter in den URLs

  • Verwendung lokalisierter Wörter in den URLs (also in der jeweiligen Sprache des Inhalts mit entsprechenden Übersetzungen auch innerhalb der URL bei mehrsprachigen Websites)

  • Verwendung von UTF-8 Codierung, beispielsweise fĂŒr arabische oder chinesische Zeichen oder Emojis

Analog dazu wird von der Verwendung von Non-ASCII-Zeichen klar abgeraten (also beispielsweise arabische oder chinesische Zeichen oder Emojis). Das gleiche gilt fĂŒr die Nutzung unlesbarer und langer IDs innerhalb von URLs.

FĂŒr internationale Websites wird die Verwendung lĂ€nderspezifischer TLDs (domain.de) oder Unterverzeichnisse (domain.com/de/) empfohlen – was aus unserer Sicht ebenfalls sinnvoll ist. Interessant an dieser Stelle, dass die dritte denkbare Variante, eine Subdomain (de.domain.com), nicht aufgefĂŒhrt und somit seitens Google offenbar nicht empfohlen wird (auch wenn diese Option in einem anderen Guide weiterhin gelistet wird).

Auch die von Google in der Guideline aufgefĂŒhrte Nutzung von - Hypen als Trenner entspricht unserer Empfehlung. Vom Einsatz von _ Underscores wird explizit abgeraten, genauso wie vom Verbinden mehrere Wörter zu einem durch Verzicht auf ein Trennzeichen.

Mehr Lesestoff zu URLs

Einen Blick wert ist ĂŒbrigens auch die Auflistung typischer Probleme, denen Google immer wieder begegnet und den vorgeschlagenen LösungsansĂ€tzen. Mehr von uns zum Thema URLs findest Du beispielsweise in...

Außerdem  möchte ich Dir noch "Cool URIs don't change" von keinem Geringeren als Tim Berners Lee himself ans Herz legen.

Aber echt jetzt: Keine Panik!

Denk dran – jetzt nicht in Panik verfallen und wild irgendwelche Änderungen anschubsen. Nur, wenn es wirklich notwendig ist. Dann natĂŒrlich wohlĂŒberlegt agieren und nicht ĂŒbermorgen feststellen, dass es so oder so doch besser gewesen wĂ€re.

Wenn Du Dir unsicher bist, ob denn nun Handlungsbedarf besteht und wenn ja, wie Du da am besten ran gehst – meld Dich bei mir und gemeinsam bringen wir das auf Spur!

Nils Warnick
Nils Warnick
Consultant
Welche Wendungen wichtig fĂŒr Websites wĂ€ren


... wenn diese Websites bestimmte GrĂ¶ĂŸen erreichten. Zu diesem Thema hat die gute Aleyda vor ein paar Tagen einen Post auf Linkedin gestellt, der die ZusammenhĂ€nge sehr anschaulich darstellt.

Koordinatensystem mit der X-Achse "Website Size" und Y-Achse "Importance". Darin sind drei Graphen abgebildet: Content, Backlinks und Technical.
In einer leichten Kurve steigt Technical an, wird also mit zunehmender Website-GrĂ¶ĂŸe Wichtiger. Das Gegenteil ist bei Content der Fall, dessen Bedeutung bei kleinen Websites am höchsten ist und langsam mit der GrĂ¶ĂŸe abnimmt. Backlinks sind ebenfalls bei kleiner GrĂ¶ĂŸe am wichtigsten und die Wichtigkeit sinkt linear mit der GrĂ¶ĂŸe der Seite. Die Graphik stammt von einem Linkedin-Beitrag von Aleyda Solis.

Das Koordinatensystem, das Aleyda von Mark-Williams-Cook ĂŒbernommen und noch erweitert hat, zeigt treffend, dass Content und Backlinks insbesondere fĂŒr kleine Websites sehr wichtig sind. WĂ€hrend die Technik es dort noch nicht ist, die mit zunehmender GrĂ¶ĂŸe der Seite an Bedeutung gewinnt und schließlich zum wichtigsten der drei Aspekte wird.

Einen genauen Zeitpunkt, ab dem Du umsatteln und Deine Konzentration verlagern solltest, gibt es natĂŒrlich nicht. Genauso wenig ergibt es Sinn, auch auf einer kleinen Seite die Technik komplett zu ignorieren. Aber wenn Du mal in einer PrioritĂ€ten-Entscheidung steckst, dann hilft Dir dieses Chart vielleicht schon etwas weiter. Einfach nochmal schauen, ob Deine Seite 500, 5.000, 50.000 oder eine halbe Million URLs und mehr hat ;)

Womöglich hilft es Dir auch, Deinem Vorgesetzten zu erklĂ€ren, warum Du gerade Entwicklungsressourcen benötigst und keinen zusĂ€tzlichen Investitionen in weiteren Content. In jedem Fall dachten wir, Du solltest es einmal gesehen haben. Hast Du immer noch Bauchschmerzen, welche nĂ€chsten Schritte fĂŒr Dich die sinnvollsten wĂ€ren? Wir beraten Dich gerne, egal wie umfangreich die Domain ist!

 Philipp Götza
Philipp Götza
Junior Consultant
Mit nur 5 Klicks 172 Jahre in die Vergangenheit

Wir lieben interne Verlinkung. Sie wird oft unterschĂ€tzt – und das, obwohl sie einen massiven Einfluss auf das Crawling, die Indexierung und die Rankings Deiner Website haben kann. Johan hat mehrere VortrĂ€ge zu dem Thema gehalten und Dir ein Tool zur VerfĂŒgung gestellt, mit dem Du die interne Verlinkung Deiner Website analysieren kannst. Wenn Du dazu Fragen hast, melde Dich gerne.

Was mit der internen Verlinkung verknĂŒpft ist, ist die Klicktiefe Deiner URLs. Hin und wieder lese ich Aussagen wie diese:

"Ja, die URLs haben eine zu hohe Klicktiefe, bei dem Verzeichnis /folder1/folder2/ folder3/folder4/folder5/folder6 braucht es ja einige Klicks, bis ich am Ziel angekommen bin."

Nur, weil die URL viele Verzeichnisse hat, heißt das nicht unbedingt, dass die URL nur so erreichbar ist! Mit dem Screaming Frog kannst Du die interne Verlinkung und Klicktiefe Deiner Website untersuchen und auswerten. Wichtige Seiten sollten nicht mehr als 3-5 Klicks von der Startseite entfernt sein. Das ist auch ein First Principle, worĂŒber ich kĂŒrzlich geschrieben habe.

Das sieht dann im Screaming Frog beispielsweise so aus:Screenshot vom Crawl Depth Report aus dem Screaming Frog. Im Beispiel sieht man, dass der Großteil aller URLs in maximal 5 Klicks erreichbar ist. Einige URLs finden sich aber auch auf einer Klicktiefe von 6 bis ĂŒber 10.

In diesem Beispiel wĂŒrde ich mir genau anschauen, welche Seiten mehr als 5 Klicks von der Startseite entfernt sind und auch bei den PlĂ€tzen 4-5 lohnt sich ein Blick, wenn das fĂŒr die organische Suche wichtige Inhalte sind.

Was bei kleinen und simplen Websites relativ einfach und trivial erscheint, wird bei großen Websites zu einer großen Herausforderung. Damit das gedanklich gelingt, hat Johan vor einiger Zeit drei Annahmen definiert, wie Du die Basis Deiner internen Verlinkung optimieren kannst).

Ein interessantes Beispiel

Die Navigation und der Footer sind ein Bonus, nicht die Basis der internen Verlinkung. Aber dieses Beispiel möchte ich Dir trotzdem gerne zeigen.

Die New York Times schafft es, dass jeder Artikel, auch aus dem Jahr 1851, in maximal 5 Klicks erreichbar ist. Und das bei einer Domain mit vielen Millionen URLs, also einer (sehr) großen Website.

Wie geht das?

Wenn Du auf der Website der New York Times nach ganz unten scrollst (am Ende der letzten Reihe, zwischen "Terms of Sale" und "Help"), findest Du im Footer eine URL die mit "Site Map" verlinkt wird (Klick #1).

Screenshot des Footers der New York Times, die im unteren Bereich relativ versteckt eine HTML Sitemap verlinken.

Hier siehst Du dann jedes Jahr, seitdem die New York Times veröffentlicht. Beginnend im Jahr 1851. Außerdem kannst Du Dir alle BeitrĂ€ge vom heutigen Tag, Gestern, dieser Woche und letzter Woche anzeigen lassen. Zu diesen gelangst Du dann schneller, als zu den anderen BeitrĂ€gen aus den vergangenen Jahren und Monaten.

Logisch, denn als Publisher möchte ich, dass meine Inhalte so schnell wie möglich gesehen und indexiert werden, da diese hĂ€ufig fĂŒr News und Discover eine geringere Halbwertszeit haben.

Wir wollen ins Jahr 1851 springen, auch wenn es damals noch kein Internet, Google oder Àhnliches gab (Klick #2).HTML Sitemap der New York Times. Hier sehen wir die EintrÀge Today, Yesterday, This Week und Last Week. Darunter alle Jahreszahlen von 2023 bis 1851 (nach AktualitÀt sortiert).

Die New York Times veröffentlicht seit September 1851, daher schauen wir uns an, welche Veröffentlichungen es in diesem Monat gab. (Klick #3)Auswahl des Jahres (1851) fĂŒhrt zu einer Monatsauswahl – im Beispiel September bis Dezember 1851.

Am 18.09.1851 wurde das erste Mal veröffentlicht. Da bin ich neugierig (Klick #4).Auswahl des Monats fĂŒhrt zu einer Tagesauswahl – im Beispiel vom 18.09.1851 bis 30.09.1851.

Und nun sehe ich alle Artikel, die die New York Times am 18. September 1851 veröffentlicht hat auf einen Blick (Klick #5, wenn ich einen Artikel aufrufe).Nach der Tagesauswahl gelangt man zur Artikelauswahl. Hier werden alle Artikel angezeigt, die zum gewÀhlten Tag veröffentlicht wurden.

Was Du daraus lernen kannst

Das ist kein Aufruf, dass jetzt jede Website im Footer eine Sitemap-URL verlinkt, auf der alle Links zu allen Seiten auftauchen. Was kritisch hinterfragt werden muss: Braucht man Inhalte, die mehr als 170 Jahre alt sind? In den meisten FĂ€llen nicht. Vor allem dann nicht, wenn man keine historisch lang gewachsene Zeitung ist.

GrundsĂ€tzlich gilt: Halte Deine Inhalte aktuell und prĂŒfe regelmĂ€ĂŸig, welche Inhalte Dir und Deinen Nutzer:innen helfen.

Was Dir das Beispiel der New York Times eigentlich zeigen soll, ist, dass es manchmal nur die richtigen Gedanken sein mĂŒssen, um eine Lösung fĂŒr ein im ersten Moment groß wirkendes Problem zu entwickeln.

Zur Optimierung der internen Verlinkung gehört aber mehr dazu. Falls Du gerne mal schauen möchtest, wie Deine interne Verlinkung optimiert werden kann, melde Dich gerne bei uns!

Johan von HĂŒlsen
Johan von HĂŒlsen
GeschĂ€ftsfĂŒhrender Gesellschafter
Twitter wird ausge-x-t.

Der effekthaschende Elon will sich seinen Lebenstraum erfĂŒllen und die Everything-App bauen. DafĂŒr soll Twitter zu X werden. Pete Myers hat sich dafĂŒr mal grob die Brand-Reichweite von Twitter und die Domain History von x.com angesehen. Das ist nicht unspannend.

Ich habe mir aber 2 Fragen gestellt, was passiert, wenn Twitter wirklich die Domain migriert:

  1. Was unterscheidet die Twitter-Migration von einer normalen Migration (außer der GrĂ¶ĂŸe)?

  2. Was fĂŒr Möglichkeiten ergeben sich fĂŒr SEOs?

Was meine ich damit:

Twitter ist ein Riesen-Brand. Und anders als bei Ebay-Kleinanzeigen ist der Brand komplett anders. Das bedeutet, alle strukturierten Daten, VerzeichniseintrĂ€ge und Ähnliches mĂŒssen aktualisiert werden. Nicht nur die interne Verlinkung, Redirects und Domain-Migration.

Der kurzfristige Ausschluss von Google hat ja gezeigt, wie wichtig der Google-Traffic fĂŒr Twitter ist.

Was bedeutet das aber fĂŒr die Möglichkeiten? Bei ebay-kleinanzeigen vs. kleinanzeigen zeigt sich ja deutlich, wie langwierig große Migrationen fĂŒr Google sein können. Und Twitter ist noch wesentlich grĂ¶ĂŸer.

Eine Möglichkeit wĂ€re also, in den Twitter-Brand-Searches nach Themen mit relativ stabiler Nachfrage zu suchen und fĂŒr diese gezielte Landingpages zu bauen, um fĂŒr die Zeit der Migration, beziehungsweise danach, eine Seite zu haben, die eventuell besser ranked als X oder Twitter selbst.

Mit entsprechender Konzeption fĂŒr einzelne Themen und/oder einer hinreichend starken Domain fĂŒr einen programmatisch skalierten Ansatz sollte hier etwas gehen.

Interessant ist ĂŒbrigens noch eine Kleinigkeit: WĂ€hrend Dr. Pete 600k Suchanfragen mit Twitter findet, habe ich in Sistrix nachgesehen und fast 500k Suchanfragen fĂŒr DE und 1,6 Millionen Anfragen in US gefunden. Den Unterschied in der GrĂ¶ĂŸenordnung fĂŒr US finde ich erstaunlich.

Ebenfalls erstaunlich (und frustrierend) ist ein Schnellcheck fĂŒr die grĂ¶ĂŸten Begriffe in DE. Dort finden wir extrem viel Nachfrage nach Verschwörungsheinis und Menschen mit merkwĂŒrdigen Meinungen. Aber auch Perlen. Vielleicht lohnt ein intensiverer Blick (insbesondere auf die Hashtags)...

Saskia Ernst
Saskia Ernst
Junior Consultant
Die Methode, deren Name nicht genannt werden darf

Wir tun es trotzdem: Cloaking.

Sobald dieses Wort fĂ€llt, bleibt gefĂŒhlt kurz die Zeit stehen. Die ganze Branche lĂ€sst alles stehen und liegen, Dinge fallen runter, und ĂŒber den Köpfen bildet sich in großen Lettern ein „ABER DAS DARF MAN DOCH NICHT – DAS IST DOCH VERBOTEN??!"

Auch Google stellt Cloaking unter Strafe. Cloaking bezeichnet die Methode, unterschiedliche Inhalte fĂŒr Nutzer*innen und Suchmaschinen darzustellen. Ziel dabei ist es, die Suchergebnisse zu manipulieren und Nutzer*innen in die Irre zu fĂŒhren. Also gehört Coaking ganz klar zu den Blackhat-SEO-Praktiken. Daher ist es auch vorherrschend verpönt und gilt auch als benutzerunfreundlich.

Google selber sagt, sie strafen die Seite im schlimmsten Fall mit Deindexierung ab. Doch SEO wĂ€re ja nicht SEO, wenn man das nicht mal testen und auf den PrĂŒfstand stellen wĂŒrde. Und somit hat Oliver Mason von ohgm sich dem Thema mal angenommen und kurzerhand seinen Blog gecloaked.

Entsprechend hat er der Suchmaschine die ĂŒblichen Inhalte, den Nutzer*innen jedoch lediglich fĂŒr einen Monat Folgendes angezeigt:

schwarze Schrift auf weißem Hintergrund: "ohgm.co.uk is closed until further notice", ein Screenshot von der vorĂŒbergehenden Startseite

Olivers Ziel war dabei zu schauen, wie sich dieses Cloaking auf seine Sichtbarkeit auswirkt. So wollte er herausfinden, welche Auswirkungen das Experiment hat und ob Google sein Cloaking bemerkt und entsprechend abstraft.

Die Ausgangslage fĂŒr das Projekt ist also, den Blog fĂŒr einen Monat zu cloaken, der zum Testzeitpunkt relativ konstanten Traffic hat – den Nutzer*innen also keine Inhalte anzuzeigen, der Suchmaschine diese jedoch zugĂ€nglich zu machen.

Vermutungen, welche Szenarien eintreten könnten:

  1. Google wird innerhalb eines Monats das sehr offensichtliche Cloaking erkennen. Sobald dies geschieht, werden aufgrund der offensichtlichen Verletzung der Richtlinien organische Klicks und Sichtbarkeit auf nahezu Null abfallen.

  2. Google hat keine automatisierten ÜberprĂŒfungen implementiert und es handelt sich nur um einen Mythos. Das Cloaking funktioniert also weiterhin, und der Traffic bleibt normal, mit ĂŒblichen Schwankungen.

  3. Es gibt automatisierte ÜberprĂŒfungen, aber das Experiment endet, bevor die Website erwischt wird. Es passiert nichts, aber es wĂŒrde passieren, wenn man es fĂŒr sechs weitere Monate laufen lassen wĂŒrde.

  4. Das Cloaking wird funktionieren, aber der Traffic wird abnehmen. Es wird allmÀhlich, statt plötzlich passieren.

Die Auflösung:

Es ist die vierte Variante. Der Traffic nimmt langsam, aber sicher ab. Kein plötzlicher Abfall, die Indizierung bleibt stabil. Es scheint also kein automatisiertes PrĂŒfungsverfahren durch Google zu geben, welches Cloaking aufspĂŒrt und die Betreiber direkt und umfassend abstraft oder es hat hier nicht gegriffen.

Ein Liniendiagramm mit blauer Kurve, auf der Y-Achse Klicks, auf der X-Achse Datumsangaben. Die Kurve verlÀuft zwischen 75 und 200 Klicks, fallend zum Ende der Kurve. Eine rote Linie markiert den Beginn des Testzeitraums.

Die Erkenntnis ist zwar interessant, aber nicht weiter verwunderlich. Spannend ist jedoch folgender Verlauf der Klick-Kurve, noch wÀhrend das Experiment lÀuft:

Ein Liniendiagramm mit blauer Kurve, auf der Y-Achse Klicks, auf der X-Achse Datumsangaben. Die Kurve verlÀuft zwischen 75 und 600 Klicks, stark ansteigend zum Ende der Kurve.

Oliver Mason fĂŒhrt diese Entwicklung jedoch nicht auf sein Experiment zurĂŒck, sondern auf ein eventuelles Core-Update. Er stellt ebenfalls heraus, dass es nicht möglich sein wird, die genaue Ursache fĂŒr diesen Anstieg zu ergrĂŒnden.

Ein Liniendiagramm mit blauer Kurve, auf der Y-Achse Klicks, auf der X-Achse Datumsangaben. Die Kurve verlÀuft zwischen 75 und 600 Klicks, stark ansteigend und sehr stark fallend zum Ende der Kurve, vergleichbar mit einem "M".

Allerdings freut er sich, dass der anschließende schnelle Absturz, der dort zu sehen ist, wahrscheinlich erneut darauf hindeutet, dass die menschlichen Signale (zumindest eine kleine) Wirkung haben.

Wir sehen also, Cloaking wird suchmaschinenseitig nicht sofort erkannt und auch nicht direkt abgestraft. Vielmehr war es die fehlende Nutzerinteraktion und hohe Absprungrate, die den Traffic hat sinken lassen.

Und?

FĂŒhrt Cloaking bei Dir noch immer zu einem "Alle-sind-sich-einig-dass-dies-schlecht-ist-warum-wĂŒrdest-du-das-tun?"-GefĂŒhl?

Vorherige AusgabeNĂ€chste Ausgabe
 
Fragen? Immer gerne fragen!
Wir sind fĂŒr Dich da.
Schreib uns gern jederzeit
eine E-Mail an kontakt@wngmn.de oder
ruf uns einfach kurz an: +49 40 22868040

Bis bald,
Deine Wingmen
Anckelmannsplatz 1, 20537 Hamburg, Germany
Wingmen Online Marketing GmbH Logo