ZurĂŒck zur Newsletter-Übersicht
Wirklich wahres Wingmen SEO Wissen fĂŒr wache Webmarketer #32
Wingmen Online Marketing GmbH Logo
Johan von HĂŒlsen
Johan von HĂŒlsen
GeschĂ€ftsfĂŒhrender Gesellschafter

Als Kind der 90er mit einer HipHop-Phase kann ich „Frohes Neues“ nicht hören, ohne „auf uns“ zu denken. Weiter eines meiner Top10-Alben: GefĂ€hrliches Halbwissen. #Track9

Ich bin, fest entschlossen mich im neuen Jahr zu Àndern,
Ich will, mich vorbildlich benehmen in allen HerrenlÀndern,
Ich darf, erst nach getaner Pflicht auf Alltag schalten,
Die Kugel ruhiger schieben und den Ball flach halten

Wie dem auch sei: Wir alle hoffen, dass Du 2020 angemessen verabschiedet hast. 2021 haben wir zurĂŒckhaltend begrĂŒĂŸt. Aber eigentlich kann es nur besser werden.

Ich bin kein Fan von NeujahrsvorsĂ€tzen. Erfolg braucht Ausdauer in der AusfĂŒhrung. Nicht Aktionismus.

Dennoch ist es hilfreich innezuhalten und mit der Energie — die Du hoffentlich sammeln konntest — zu planen: Was tue ich hier eigentlich? Was ist mein Ziel? Wie hilft das, was ich tue diesem Ziel?

Was sind Deine Maßnahmen, um 2021 Deine SEO-Ziele zu erreichen?

Wir hoffen, dass Du gesund und erfolgreich bist und wir auch 2021 Dein Leben mit unserem Newsletter bereichern können.

Deine Wingmen

Was wir gelesen haben
Andreas Schalay
Andreas Schalay
Consultant
Ein SEO-Experiment zeigt, dass Hosting ein Rankingfaktor sein könnte

Im Blog von einer britischen Online Marketing Agentur Reboot wurde ein interessantes SEO-Experiment veröffentlicht, bei dem Hosting als Rankingfaktor geprĂŒft wurde. Es wurden neue Domains mit ausgedachten Keywords angelegt, und zwar:

  • 10 Domains auf AWS Hosting mit einer dedizierten IP-Adresse
  • 10 Domains auf diversen Hosts mit geteilten IP-Adressen mit fragwĂŒrdigen Hosting-Nachbarn

Nach 8 Monaten konnte man deutlich erkennen, dass die Domains auf AWS Hosting fĂŒr die ausgedachten Keywords besser rankten als die Domains mit geteilten IP-Adressen.

Doch das Experiment ging weiter. Die Reboot-Kollegen haben die Hosts geswitcht, sodass die Seiten, die vorher auf AWS gehostet wurden, nun die geteilten IP-Adressen bekamen, und die Domains mit den billigen Hosts auf AWS migriert wurden. Das Ergebnis war ein Ranking-Wechsel.

Das bedeutet, dass wenn es tatsĂ€chlich keine weitere Faktoren im Spiel waren, und die Keywords fĂŒr Google keinerlei Bedeutung hatten, ein seriöses Hosting fĂŒr Google ein positives Ranking-Signal ist.

Die Gewichtung von diesem Faktor ist natĂŒrlich eine andere Frage. Da es aber auch andere GrĂŒnde fĂŒr eine dedizierte IP-Adresse gibt (Sicherheit, Performance), empfehlen wir fĂŒr seriöse Projekte immer einen seriösen Host zu benutzen.

Behrend von HĂŒlsen
Behrend von HĂŒlsen
Consultant
“Fake it ‘til You make It” - Lighthouse Lazy Load with Facade Audit

Der neue Facade Audit im Lighthouse Audit prĂŒft auf unnötige Third Party Video Embeddings, Chatbots oder Ă€hnliche Ressourcen, die ohne Nutzerinteraktion eigentlich nur ein wenige Kilobyte großes Thumbnail oder Icon anzeigen. Solche Funktionen laden hĂ€ufig erstmal ein halbes Megabyte JavaScript von einem Third Party Host, dass dann auch noch geparsed werden muss. Das verbraucht unnötig Bandbreite und RechenkapazitĂ€t.

Da der Nutzer davon keinen Nutzen hat, bis er mit dem entsprechenden Thumbnail oder Icon aktiv interagiert, ergibt es hĂ€ufig Sinn, nur ein eine Fassade der Funktion zu errichten und den echten Inhalt dann in Ruhe nachzuladen. Erst die Fassade hinstellen, bevor man die eigentliche FunktionalitĂ€t sicherstellt, klingt fĂŒr Bauherren erstmal kontraintuitiv, aber Web Developer sind ja auch keine Architekten.

Wenn der Audit bei Dir anschlĂ€gt, ist der Aufwand zur Behebung ĂŒbrigens ĂŒberschaubarer, als es auf den ersten Blick aussieht. Es gibt schon vorgefertigte Lösungen, die von web.dev verlinkt werden.

Falls Dich der Begriff “Facades” verwirrt: Die Kollegen von web.dev meinen hier nicht die Facade patterns, sondern haben nur ein Ă€hnliches Wort fĂŒr ein Ă€hnliches Problem verwendet.

Nils Warnick
Nils Warnick
Consultant
Sh*t in, Sh*t out - Ein echter Evergreen

Unbrauchbaren Input kann auch die beste Verarbeitung der Welt nicht in wertvollen Output verwandeln. Was schon lange gilt, findet auch im Bereich der Algorithmen und des Machine Learning Anwendung. Gerade um letzteres gewinnbringend einsetzen zu können, werden Daten benötigt, aus denen die Maschine lernen kann - je mehr, desto besser - oder?

Wie schon der Microsoft Chatbot Tay und die darum rankenden Kontroversen gezeigt haben, sind auch oder womöglich gerade kĂŒnstliche Intelligenzen anfĂ€llig fĂŒr das Lernen problematischer Verhaltensweisen.

DiesbezĂŒglich sorgte die nun ehemalige Mitarbeiterin und Co-Lead des Google Ethical AI-Teams Dr. Timnit Gebru kĂŒrzlich fĂŒr Aufsehen. Als Co-Autor des Forschungspapiers “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?” griff sie mögliche Risiken von großen Datensets fĂŒr das Lernen kĂŒnstlicher Intelligenzen auf.

Ein (englischsprachiger) Abriss ĂŒber die Inhalte des Papiers und den daraus folgenden Auseinandersetzungen zeigt: KĂŒnstliche Intelligenz und deren Entwicklung steht nach wie vor vor großen Herausforderungen. Ebenso wie Fragen des ethisch korrekten Umgangs damit.

Die Kollegen von SearchEngineLand fassen die gesamte Thematik gut lesbar zusammen. Sollte die Zeit fĂŒr nur einen Artikel zum Thema reichen, empfehlen wir Dir diesen.

Justus BlĂŒmer
Justus BlĂŒmer
Consultant
Googles VorschlÀge zur Crawling-Steuerung

Unsere Branchenkollegin Kristina Azarenko hat mit ihrer Liste 2020 Must-Read SEO Posts and Bonus Resources eine großartige Sammlung an Artikeln kuratiert, die insbesondere fortgeschrittene SEOs im letzten Jahr gelesen haben oder es zumindest schleunigst nachholen sollten.

FĂŒr viele einer der spannendsten Links und in Kristinas Liste gleich der erste fĂŒhrt zu Googles Large site owner's guide to managing your crawl budget, in dem das Search Central Team konkrete Tipps gibt, wie Websites mit mehr als einer Million Unterseiten oder kleinere mit sehr schnell wechselnden Inhalten Einfluss darauf nehmen können, wie Google ihre Websites crawled.

Das Thema, das in Sachen Crawling-Steuerung regelmĂ€ĂŸig den grĂ¶ĂŸten Hebel hat, wird im Abschnitt Hide URLs that shouldn’t be in search results besprochen: Es geht darum, zu verhindern, dass Google große Mengen fĂŒr die Suche irrelevanter URLs ĂŒberhaupt findet. Üblicherweise ist das vor allem fĂŒr Filterfunktionen in Online-Shops oder vergleichbaren Modellen wichtig, in denen ohne die notwendigen SEO-Vorkehrungen quasi unendlich viele URLs generiert werden, weil so viele verschiedene Kombinationen aus Filteroptionen möglich sind.

In der Dokumentation unerwĂ€hnt bleiben in diesem Zusammenhang aber die beliebte Lösung ĂŒber Link-Maskierung per JavaScript oder das etablierte PRG Pattern. Beide sorgen dafĂŒr, dass Nutzer die Seiten problemlos erreichen können, Google aber keinen crawlbaren Link findet und sich so auf die wirklich Google-relevanten URLs fokussieren kann.

Inhaltlich ist das Dokument nicht wirklich neu; hilfreich ist aber, dass es direkt von Google selbst kommt. Das macht es manchmal einfacher, den Implementierungsaufwand fĂŒr die technischen Lösung zur Crawling-Steuerung zu rechtfertigen.

Anita Böhm
Anita Böhm
Consultant
Die Google Search Bar in eine Kommandozeile verwandeln

Dave Sottimano hat ein Tool aus der Kategorie „Wieso ist da noch keiner drauf gekommen“ gebastelt. Es erweitert die Google-Suche um selbst konfigurierbare Parameter. Mit diesen Shortcuts wird mit ein wenig Übung die Nutzung von Such-Einstellungen deutlich zeitsparender.

Ein paar Beispiele:

  1. X Ergebnisse aus einem bestimmten Zeitraum
  2. Sprung in ein Vertical (Bildersuche / Videosuche)
  3. Sprach- und Country-Einstellungen modifizieren

WĂ€hrend 1 und 2 auch ĂŒber das Interface erreichbar sind, ist 3 schon eine deutliche Erleichterung:

“Changing country/lang params are annoying. Let's fix that.
Here we use ;g brfrde which translates to gl=br&hl=fr&lr=lang_de. In case you wanted to search for iphones in brazil, with french interface and german results.”

Das Beispiel zeigt, was mit der Erweiterung möglich ist. Weitere Shortcuts, die ich mir konfigurieren möchte:

  • site:domain.com -site:www.domain.com / Alles anzeigen, was nicht auf www.domain.com liegt
  • page=3 / shortcut fĂŒr Ergebnisseite 3
  • spam / site + intitle-Suche fĂŒr verschiedene Spam-Begriffe
  • loremipsum / site: +lorem ipsum

Alle diese Features sind natĂŒrlich auch irgendwie ĂŒber das Interface oder URL-Manipulation zu erreichen. Aber vielleicht wird 2020 das Jahr, indem ich schneller google als Google antworten kann, indem ich mir Shortcuts konfiguriere.

Falls Du auch hĂ€ufiger mal wissen möchtest, wie die SERPs in einem anderen Land und/oder einer anderen Sprache aussehen, oder immer wieder die selben Einstellungen an der Suche vornimmst, dann ist das Tool sicher hilfreich fĂŒr Dich.

Behrend von HĂŒlsen
Behrend von HĂŒlsen
Consultant
Request Indexing unterm Weihnachtsbaum

Viele viele SEOs haben sich die Möglichkeit einzelne URLs ĂŒber die GSC indexieren zu können zurĂŒck gewĂŒnscht. Der Weihnachtsmann hat der Google Search Central bestĂ€tigt, das sie alle brav waren und entsprechend gab es kurz vor Weihnachten die Bescherung: Der Request Indexing-Button ist wieder da 🎉.

NatĂŒrlich kommt man mit etwas KreativitĂ€t auch ohne dieses Feature ĂŒber die Runden, aber im Alltag ist es doch schön manche Aufgaben einfach mit einem Klick auf einen Button lösen zu können.

 
Fragen? Immer gerne fragen!
Wir sind fĂŒr Dich da.
Schreib uns gern jederzeit
eine E-Mail an kontakt@wngmn.de oder
ruf uns einfach kurz an: +49 40 22868040

Bis bald,
Deine Wingmen
Anckelmannsplatz 1, 20537 Hamburg, Germany
Wingmen Online Marketing GmbH Logo