Wirklich wahres Wingmen SEO Wissen f├╝r wache Webmarketer #131
Wingmen Online Marketing GmbH Logo
Anita B├Âhm
Anita B├Âhm
Consultant
­čĽ»´ŞĆKomm mit mir ins Advents-Feuerland: Der Pur-SEO-Mix

Drau├čen wird es immer k├Ąlter und grauer. Wir haben es uns beim sanften Bildschirmleuchten unserer Laptops mit Kuscheldecke und Apfelpunsch gem├╝tlich gemacht und flei├čig an unseren Newsletter gestrickt.

Auf unserem bunten SEO-Pl├Ątzchenteller findest Du

  • Ein mit Puderzucker best├Ąubtes Recap zu Nina Rosers Relaunch-Vortrag von Nora

  • Einen zuckerstreuselverzierten Bericht ├╝ber umweltfreundliches Crawling und Indexing von Hannah

  • Eine nach weihnachtlichen Gew├╝rzen duftende Auseinandersetzung mit KI-generiertem Content von Matt

  • Eine kleine Robots.txt vs Parameter Analyse mit Schokoguss von Johan

  • Eine vanillige Tool-Vorstellung von Nora

Greif zu! ­čŹ¬

Deine Wingmenschen

Was wir gelesen haben
Nora Tiedemann
Nora Tiedemann
Junior Consultant
Wetten, dass? So laufen Relaunches wirklich ­čĄ¬

In ihrem Vortrag "Relaunch mit 3 SEO Wetten. Wie klug ist der Google Algorithmus wirklich?" hat Nina Roser auf der SEOkomm in Salzburg spannende Insights aus dem Relaunch mit einem Kunden mitgebracht.

Nina Roser auf der B├╝hne der SEOkomm. Im Hintergrund sieht man die Anfangsslide ihres Vortrags

Dabei wurde die Anzahl der URLs von 45.000 Seiten im Index auf 4.500 Seiten reduziert. Drei Erkenntnisse aus Ninas Vortrag habe ich heute f├╝r Dich mitgebracht:

Ein Relaunch braucht Zeit

Wie der Titel von Ninas Vortrag verr├Ąt, hat sie ihre Erkenntnisse in 3 SEO Wetten verpackt. Das Ergebnis der dritten Wette konnte sie allerdings noch nicht mitbringen, weil sich der Relaunch im Zuge des Projektverlaufs verz├Âgert hat. Das passiert. Mach Dir also keinen Kopf, wenn eventuell auch bei Dir der Projektverlauf nicht so l├Ąuft, wie geplant!

Sichtbarkeit ist nicht alles

Im Zuge des Relaunches hat sich die Sichtbarkeit fast halbiert. Da bleibt einem im ersten Moment nat├╝rlich kurz das SEO-Herz stehen. War in diesem Fall aber nicht wirklich schlimm und zu erwarten. Die verlorenen Rankings haben nicht die Ziel-Keywords betroffen, sondern nicht passende Thematiken, die f├╝r den Kunden ohnehin keine Relevanz haben und durch das Sch├Ąrfen des Themenfokuses weggefallen sind. Das wurde vorher Bedacht und mit dem Kunden abgestimmt. Hier hilft Dir ein gutes Keyword-Monitoring, um im Falle eines Sichtbarkeitsverlusts zu pr├╝fen, ob die f├╝r Dich wichtigen Keywords ├╝berhaupt betroffen sind und zu schauen, wie sich die Sichtbarkeit Deines Projekts wirklich entwickelt.┬á

Stecke Liebe in Details

Nina hat au├čerdem berichtet, dass holistische Landingpages mehr Rankings erzielen als einzelne Landingpages. Allerdings bekommst Du keine Top-Rankings ohne individuelle Analyse und Optimierung Deiner Seiten. Auch reicht es nicht, Exact-Match-Keywords in einem Abschnitt einer holistischen Landingpage zu nutzen. Du musst deutlich machen, dass die Seite das konkrete Thema auch bedient!

Am Ende braucht SEO Liebe. Nur weil etwas einmal gut funktioniert, muss dieser Erfolg nicht langfristig von Bestand sein. Planung, Tests, Monitoring, Analyse und Optimierung sollten fester Bestandteil Deiner SEO-Strategie sein. Um es mit Ninas Worten zu sagen:

"Content mit Mehrwert bietet die Chance, mehr relevanten Traffic zu gewinnen"

Am Ende m├Âchtest Du, dass Deine Zielgruppe Deine Inhalte mag und konvertiert. Dazu muss Dein Content einen Mehrwert bieten und auf Dein Ziel einzahlen. Deine SEO-Ziele k├Ânnen dabei ganz unterschiedlich sein:

Slides mit den verschiedenen SEO-Zielen: Conversion, Branding, Trust, Information und Links

Johan sagt immer so sch├Ân: "Kein Content ohne Strategie". Johan hat ├╝brigens einen tollen Artikel zum Thema SEO-Strategie geschrieben. Am Ende solltest Du f├╝r Dich mitnehmen, dass Relaunches und die aufgestellte Strategie aufgehen kann, aber nicht muss. Ein Relaunch birgt einfach T├╝cken, die manchmal nur schwer vorhersehbar sind. Hab Mut und teste! Falls Du nun mehr von Ninas spannenden SEO-Wetten h├Âren m├Âchtest, kannst Du Dich f├╝r den Webcast am 8. Dezember von 15 bis 16 Uhr anmelden.

Hannah Rohde
Hannah Rohde
Junior Consultant
├ťber e-waste und was wir dagegen tun k├Ânnen

Im Vortrag zum Thema Crawl-Management von Darius Erdt und Jan-Peter Ruhso auf der SEOkomm ging es darum, wie die Effizienz des Crawlings gesteigert werden kann.

Besonders gut haben mir dabei zwei Dinge gefallen:

  • Anhand von praxisnahen Beispielen und Tipps haben Darius und Jan aufgezeigt, wie Du erkennen kannst, dass Du das Crawling Deiner Website verbessern kannst.

  • Dabei haben sie mehrmals betont, weshalb das unter anderem so wichtig ist, denn unn├Âtiges Crawlen ist nicht nur aus SEO Sicht doof.

Nachhaltigkeit ist in aller Munde und die Awareness bereits gro├č. Wir ergreifen flei├čig Ma├čnahmen in verschiedenen Bereichen: es wird vermehrt Second-Hand und/oder unverpackt und regional eingekauft, M├╝ll wird getrennt & so gut es geht vermieden und Vieles mehr.

Was viele oft nicht ber├╝cksichtigen, ist der ganze M├╝ll, den wir durch das st├Ąndige Online sein entstehen lassen. Darius und Jan sprechen hierbei von e-waste.┬á

Immer wieder h├Âren wir SEOs, dass es ja nicht so schlimm sei, wenn Google Seiten unn├Âtig crawlt.

Darius und Jan haben ein Rechenbeispiel gezeigt, was toll verdeutlicht, wie viel Ressourcen eigentlich gespart werden k├Ânnen, wenn nur das gecrawlt wird, was auch wirklich wichtig ist, denn:

"Jeder einzelne Visit einer Webseite, auch der des Googlebots, verbraucht Bandbreite, RAM & CPU und somit Energie."

Unn├Âtig mehr Energie wird zus├Ątzlich verbraucht durch ineffizient ladende Seiten, fehlendes Caching, nicht erforderliches JavaScript oder auch nicht komprimierte Bilder.

Merke: Wenn Deine Seite schnell l├Ądt, dann ist das also nicht nur gut f├╝r Deinen Core Web Vitals Score, sondern auch f├╝r die Umwelt ­čÖé Und wenn keine unn├Âtigen Seiten gecrawlt werden, hat Google nat├╝rlich auch mehr Kapazit├Ąt, Deine wirklich wichtigen und neuen Inhalte zu crawlen und pr├╝fen. Das wiederum bringt Dein Indexierungsmanagement nach vorn.

Auf websitecarbon.com kannst Du den Verbrauch Deiner Seite pr├╝fen.

F├╝r unsere Wingmen-Seite kann ich stolz sagen, wir sind im gr├╝nen Bereich.

Screenshot von https://www.websitecarbon.com/website/wngmn-de/: Hurrah! This web page is cleaner than
75
% of web pages testedOnly0.24g of CO2 is produced every time someone visits this web page.

Jan und Darius haben f├╝r ihre Rechnung

  • den Durchschnittswert einer Seite ermittelt,┬á

  • dann Caching eingef├╝hrt┬á

  • und anschlie├čend erneut den Durchschnittswert ermittelt.

So konnten sie feststellen, wie viel CO2 Einsparungen pro Visit zusammenkommen.

Dann haben sie

  • die Logfiles gecheckt┬á

  • und nur die Googlebot-Visits herausgezogen, die Status 200 hatten, indexierbar waren und keine Ressourcen Requests waren.

Die Anzahl haben sie dann mit den CO2-Einsparungen multipliziert und kamen f├╝r die Beispiel-Website auf 1,2 Tonnen!

Was kannst Du also tun, um Dein Crawl-Management effizient(er) zu gestalten? Nachfolgend ein paar Tipps:

  • Pr├╝fe zun├Ąchst die Crawling-Statistiken in der GSC (etwas versteckt zu finden unten links bei den Einstellungen) und verschaffe Dir einen ├ťberblick ├╝ber das Crawling Deiner Seite und das Verh├Ąltnis zwischen erforderlichem und ├╝berfl├╝ssigem Crawling.

  • Vermeide Duplicate Content - nutze 404 oder 410 um Seiten zu konsolidieren oder leite sie per 301 weiter.

  • Vermeide das Crawling von unn├Âtigen Parameter-URLs, die beispielsweise durch Login-URLs entstehen, durch Filterung, Sortierung oder sogar Session-IDs.

  • Bringe Deine Seite technisch auf Kurs und optimiere Dein Caching und die Ressourcen-Nutzung.┬á

  • Achte auf Deine Server-Kapazit├Ąten.

  • Optimiere Deine interne Verlinkung und vermeide Crawling von Weiterleitungen und 4xx-er Seiten

  • Weiterhin empfehlen Darius und Jan den Einsatz von Linkmaskierung

Ich denke das Ganze nun noch ein wenig weiter und forsche, wie wir auch im Vorfeld schon einmal abw├Ągen k├Ânnen, wie viel CO2 Einsparungen erlangt werden k├Ânnen durch verschiedene Ma├čnahmen - sobald ich dazu mehr habe, melde ich mich wieder ;)

Matthias P├╝lz
Matthias P├╝lz
Trainee
Einmal Content zum Mitnehmen, bitte!

In der vorletzten Newsletter-Ausgabe hat Flo Dir ja schon einmal das Thema AI Content n├Ąhergebracht. Letzte Woche hat Hannah Dir dann etwas ├╝ber die verbl├╝ffende ├ähnlichkeit von k├╝nstlich generierten und von Menschen verfassten Texten erz├Ąhlt.

Passend dazu gibt es jetzt von mir auch noch einen Artikel ├╝ber K├╝nstliche Intelligenz. Denn wie hei├čt es doch so sch├Ân: Aller guten Dinge sind drei. In diesem Sinne: Enjoy!

Hast Du schon einmal dar├╝ber nachgedacht, Deine Inhalte von einer K├╝nstlichen Intelligenz erstellen zu lassen? Wertvoller Content in Sekundenschnelle, ganz einfach auf Knopfdruck. H├Ârt sich doch verf├╝hrerisch, nicht wahr?

Klar, eigentlich mag Google keine automatisiert erstellten Inhalte, aber hey! Google muss ja nicht herausfinden, dass den Text in Wirklichkeit kein Mensch, sondern eine KI geschrieben hat. Denn was die Suchmaschine nicht wei├č... Um sicherzugehen, dass das Ganze nicht auff├Ąllt, nachtr├Ąglich einfach hier noch ein paar kleine Schreibfehler einf├╝gen und dort ein paar F├╝llw├Ârter verwenden und voil├á: Fertig ist die perfekte T├Ąuschung!

Ja, das klingt dann trotzdem etwas zu einfach. Und das ist es auch, denn auch wenn das im ersten Moment wie ein super Plan erscheint... Ein wichtiger Punkt wird dabei dann doch vergessen (wenn nicht sogar der wichtigste): Der Mehrwert f├╝r den Nutzer! Surprise, surprise!

Nat├╝rlich kann Dir eine Maschine mittlerweile einen Text liefern, der verbl├╝ffend ├Ąhnlich dem eines Menschen gleicht. Der Mehrwert und das Verst├Ąndnis f├╝r den Nutzer bleiben dabei allerdings auf der Strecke.

Dass das nachtr├Ągliche Anpassen von KI-generiertem Content nicht der richtige Weg ist, unterstreicht auch Danny Sullivan noch einmal bei Twitter. Dort schreibt er:

"If someone is asking themselves how to make content more human-like, then they're missing the point about creating content for people."

Es spricht ja nichts dagegen, sich von einer KI auf verschiedenen Wegen helfen zu lassen. Wenn Du allerdings gerade dar├╝ber nachdenkst, auf die dunkle Seite der Macht zu wechseln und Deine Blogbeitr├Ąge oder Kategorietexte k├╝nftig ausschlie├člich von einer K├╝nstlichen Intelligenz schreiben zu lassen. Think again. And again. And again.

Johan von H├╝lsen
Johan von H├╝lsen
Gesch├Ąftsf├╝hrender Gesellschafter
5 Minuten Shop-Robots.txt

Im WUX-Discord gab es die Frage: Gibt es eigentlich Shops, die ihre Paginierung per Robots.txt sperren, anstatt sie zu noindexen.

Ich musste direkt an diese wundersch├Âne Robots.txt-Studie denken, hatte aber nicht ganz so viel Zeit, aber Interesse war geweckt.

Aus einer anderen Analyse hatte ich noch eine Liste mit 500 Shop-Domains herumliegen. Mit einem einfachen Terminal-Befehl habe ich mir dann die Robots.txt der 500 Domains geholt. Eventuelle Weiterleitungen haben wir dabei ignoriert:

for i in `cat ../shops.txt`; do curl https://www.${i}/robots.txt > $i;done

Danach haben wir 500 Robots.txt in einem Ordner liegen. Diese Dateien k├Ânnen wir jetzt mit grep nach einfachen Paginierungsmustern untersuchen:

grep -E "page|p=|pnum|seite" *

Nat├╝rlich durchsuchen wir so nicht nur Anweisungen mit User-Agent: Googlebot, sondern alle Anweisungen, aber eine kurze Liste, welche Robots.txt einen zweiten Blick bekommen k├Ânnten, erhalten wir sofort in unserem 500 Shops Sample:

Dazu kommen noch besonders sch├Âne Eintr├Ąge von conrad.de (Verbot doppelter Paginierungsparameter) und geschenkidee.de (haben die Sperrung aller Parameter auskommentiert).

Inwieweit die Muster in den einzelnen F├Ąllen tats├Ąchlich zur Probleml├Âsung geeignet sind, l├Ąsst sich von au├čen nat├╝rlich schwer sagen, weil wir weder bei der Problemdefinition, noch bei der Abw├Ągung der L├Âsungsoptionen dabei waren. Au├čerdem haben wir nicht gepr├╝ft, ob die Muster tats├Ąchlich die Paginierungsmuster im Shop sind.

Dennoch f├Ąllt auf, dass┬á

  • nur wenige Shops die Paginierungsmuster ausschlie├čen

  • viele zwar alle Paginierungen sperren, die ersten 5 Seiten aber wieder ausnehmen.

Mit letzterer Idee hab' ich meine Probleme, insbesondere weil sie recht pauschal angewandt zu werden scheint.

Wenn wir uns die Funktion der Paginierung f├╝r SEO anschauen, dann dient die Paginierung:

  1. der internen Verlinkung

  2. der Discovery neuer Seiten

F├╝r die Discovery brauchen wir die Paginierung nicht (sofern wir vern├╝nftige Sitemaps und wertvolle Produktseiten haben).

Und f├╝r interne Verlinkung ist die Paginierung ungeeignet, weil die verlinkende Seite wenig Wert hat.

Idealerweise ist die Paginierung f├╝r die St├Ąrkung der Seiten nicht notwendig, sondern ├╝ber entsprechend detaillierte ├ťbersichtsseiten gew├Ąhrleistet. Spannend aber zu sehen, wie unterschiedlich die Paginierung schon in der Robots.txt gel├Âst ist.

Die Robots.txt-Anweisungen unterscheiden sich massiv. Was w├╝rdest Du gern ├╝ber die Robots.txt der gr├Â├čten deutschen Shops wissen?

Nora Tiedemann
Nora Tiedemann
Junior Consultant
Ein blindes Huhn findet auch mal einen Biber ­čŽź

Verr├╝ckt! Wir haben mit unserer Website etwas gewonnen, und zwar den Performance-Biber von OBI. Patrick Krebs hat f├╝r seinen SEOkomm-Vortrag "Webseiten-Performance-Monitoring und -Optimierung bei OBI" einen Test mit sitespeed.io durchgef├╝hrt.

Getestet wurden 64 Domains der Speaker und Moderatoren der Online Expert Days: 

Screenshot aus der Pr├Ąsentation von Patrick Krebs mit dem Test Szenario des SEOkomm Tests in sitespeed.io

Dabei wurden folgende Kriterien ber├╝cksichtigt:

  • First visual change

  • Visual readiness

  • CPU spent time to render

  • Carbon emission

  • Performance Score overall

  • Fully loaded

Und siehe da - wir haben gewonnen! ­čÄë Kleiner Disclaimer: Es gibt wahrscheinlich wenig Test-Szenarien, in denen unsere Seite gewinnen w├╝rde - aber hey...diesmal hat es geklappt┬á ­čśë

Nora Tiedemann und Christoph Hemmann von Wingmen Online Marketing nehmen den Performance-Biber von OBI von Patrick Krebs als Gewinner des Performance-Tests mit sitespeed.io auf der SEOkomm entgegen.

Neben dem Test-Szenario hat Patrick au├čerdem gezeigt, wie man mithilfe von Grafana und sitespeed.io ein richtig cooles Monitoring aufsetzen kann, um die Performance einer Website zu verbessern. Warum Du das tun solltest? Das zeigt Dir der OBI A/B-Test:

ÔÇ×Unser Ergebnis: 100 ms schnellere Webseite f├╝hrt zu 1% mehr Conversion"

Deshalb solltest Du Dir sitespeed.io  anschauen:

  1. Es ist schnell aufgesetzt (mit etwas Programmiererfahrung) und bietet mit dem schon bereitgestellten Dashboard gute Analysem├Âglichkeiten.

  2. Es k├Ânnen mehrere Domains und/oder URLs gleichzeitig ├╝berwacht werden.

  3. Die Erhebung der Daten ist automatisch zu bestimmten Zeitpunkten m├Âglich.

  4. Es gibt viele weitere Metriken im Vergleich zum Pagespeed-Insight-Report.

  5. Du kannst auch historische Daten vergleichen.

Kanntest Du schon sitespeed.io oder hast Du schonmal etwas gewonnen? Lass es mich wissen. ­čôę

Vorherige AusgabeN├Ąchste Ausgabe
 
Fragen? Immer gerne fragen!
Wir sind f├╝r Dich da.
Schreib uns gern jederzeit
eine E-Mail an kontakt@wngmn.de oder
ruf uns einfach kurz an: +49 40 22868040

Bis bald,
Deine Wingmen
Anckelmannsplatz 1, 20537 Hamburg, Germany
Wingmen Online Marketing GmbH Logo