SEO-Newsletter Übersicht
Wirklich wahres Wingmen SEO Wissen für wache Webmarketer #32
Wingmen Online Marketing GmbH Logo
Johan von Hülsen
Johan von Hülsen
Geschäftsführender Gesellschafter

Als Kind der 90er mit einer HipHop-Phase kann ich „Frohes Neues“ nicht hören, ohne „auf uns“ zu denken. Weiter eines meiner Top10-Alben: Gefährliches Halbwissen . #Track9

Ich bin, fest entschlossen mich im neuen Jahr zu ändern,
Ich will, mich vorbildlich benehmen in allen Herrenländern,
Ich darf, erst nach getaner Pflicht auf Alltag schalten,
Die Kugel ruhiger schieben und den Ball flach halten

Wie dem auch sei: Wir alle hoffen, dass Du 2020 angemessen verabschiedet hast. 2021 haben wir zurückhaltend begrüßt. Aber eigentlich kann es nur besser werden.

Ich bin kein Fan von Neujahrsvorsätzen. Erfolg braucht Ausdauer in der Ausführung. Nicht Aktionismus.

Dennoch ist es hilfreich innezuhalten und mit der Energie — die Du hoffentlich sammeln konntest — zu planen: Was tue ich hier eigentlich? Was ist mein Ziel? Wie hilft das, was ich tue diesem Ziel?

Was sind Deine Maßnahmen, um 2021 Deine SEO-Ziele zu erreichen?

Wir hoffen, dass Du gesund und erfolgreich bist und wir auch 2021 Dein Leben mit unserem Newsletter bereichern können.

Deine Wingmen

Was wir gelesen haben
Andreas Schalay
Andreas Schalay
Consultant
Ein SEO-Experiment zeigt, dass Hosting ein Rankingfaktor sein könnte

Im Blog von einer britischen Online Marketing Agentur Reboot wurde ein interessantes SEO-Experiment veröffentlicht , bei dem Hosting als Rankingfaktor geprüft wurde. Es wurden neue Domains mit ausgedachten Keywords angelegt, und zwar:

  • 10 Domains auf AWS Hosting mit einer dedizierten IP-Adresse
  • 10 Domains auf diversen Hosts mit geteilten IP-Adressen mit fragwürdigen Hosting-Nachbarn

Nach 8 Monaten konnte man deutlich erkennen, dass die Domains auf AWS Hosting für die ausgedachten Keywords besser rankten als die Domains mit geteilten IP-Adressen.

Doch das Experiment ging weiter . Die Reboot-Kollegen haben die Hosts geswitcht, sodass die Seiten, die vorher auf AWS gehostet wurden, nun die geteilten IP-Adressen bekamen, und die Domains mit den billigen Hosts auf AWS migriert wurden. Das Ergebnis war ein Ranking-Wechsel.

Das bedeutet, dass wenn es tatsächlich keine weitere Faktoren im Spiel waren, und die Keywords für Google keinerlei Bedeutung hatten, ein seriöses Hosting für Google ein positives Ranking-Signal ist.

Die Gewichtung von diesem Faktor ist natürlich eine andere Frage. Da es aber auch andere Gründe für eine dedizierte IP-Adresse gibt (Sicherheit, Performance), empfehlen wir für seriöse Projekte immer einen seriösen Host zu benutzen.

Behrend von Hülsen
Behrend von Hülsen
Consultant
“Fake it ‘til You make It” - Lighthouse Lazy Load with Facade Audit

Der neue Facade Audit im Lighthouse Audit prüft auf unnötige Third Party Video Embeddings, Chatbots oder ähnliche Ressourcen, die ohne Nutzerinteraktion eigentlich nur ein wenige Kilobyte großes Thumbnail oder Icon anzeigen. Solche Funktionen laden häufig erstmal ein halbes Megabyte JavaScript von einem Third Party Host, dass dann auch noch geparsed werden muss. Das verbraucht unnötig Bandbreite und Rechenkapazität.

Da der Nutzer davon keinen Nutzen hat, bis er mit dem entsprechenden Thumbnail oder Icon aktiv interagiert, ergibt es häufig Sinn, nur ein eine Fassade der Funktion zu errichten und den echten Inhalt dann in Ruhe nachzuladen. Erst die Fassade hinstellen, bevor man die eigentliche Funktionalität sicherstellt, klingt für Bauherren erstmal kontraintuitiv, aber Web Developer sind ja auch keine Architekten.

Wenn der Audit bei Dir anschlägt, ist der Aufwand zur Behebung übrigens überschaubarer, als es auf den ersten Blick aussieht. Es gibt schon vorgefertigte Lösungen, die von web.dev verlinkt werden.

Falls Dich der Begriff “Facades” verwirrt: Die Kollegen von web.dev meinen hier nicht die Facade patterns , sondern haben nur ein ähnliches Wort für ein ähnliches Problem verwendet.

Nils Warnick
Nils Warnick
Consultant
Sh*t in, Sh*t out - Ein echter Evergreen

Unbrauchbaren Input kann auch die beste Verarbeitung der Welt nicht in wertvollen Output verwandeln. Was schon lange gilt, findet auch im Bereich der Algorithmen und des Machine Learning Anwendung. Gerade um letzteres gewinnbringend einsetzen zu können, werden Daten benötigt, aus denen die Maschine lernen kann - je mehr, desto besser - oder?

Wie schon der Microsoft Chatbot Tay und die darum rankenden Kontroversen gezeigt haben, sind auch oder womöglich gerade künstliche Intelligenzen anfällig für das Lernen problematischer Verhaltensweisen.

Diesbezüglich sorgte die nun ehemalige Mitarbeiterin und Co-Lead des Google Ethical AI-Teams Dr. Timnit Gebru kürzlich für Aufsehen. Als Co-Autor des Forschungspapiers “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?” griff sie mögliche Risiken von großen Datensets für das Lernen künstlicher Intelligenzen auf.

Ein (englischsprachiger) Abriss über die Inhalte des Papiers und den daraus folgenden Auseinandersetzungen zeigt: Künstliche Intelligenz und deren Entwicklung steht nach wie vor vor großen Herausforderungen. Ebenso wie Fragen des ethisch korrekten Umgangs damit.

Die Kollegen von SearchEngineLand fassen die gesamte Thematik gut lesbar zusammen . Sollte die Zeit für nur einen Artikel zum Thema reichen, empfehlen wir Dir diesen.

Justus Blümer
Justus Blümer
Consultant
Googles Vorschläge zur Crawling-Steuerung

Unsere Branchenkollegin Kristina Azarenko hat mit ihrer Liste 2020 Must-Read SEO Posts and Bonus Resources eine großartige Sammlung an Artikeln kuratiert, die insbesondere fortgeschrittene SEOs im letzten Jahr gelesen haben oder es zumindest schleunigst nachholen sollten.

Für viele einer der spannendsten Links und in Kristinas Liste gleich der erste führt zu Googles Large site owner's guide to managing your crawl budget , in dem das Search Central Team konkrete Tipps gibt, wie Websites mit mehr als einer Million Unterseiten oder kleinere mit sehr schnell wechselnden Inhalten Einfluss darauf nehmen können, wie Google ihre Websites crawled.

Das Thema, das in Sachen Crawling-Steuerung regelmäßig den größten Hebel hat, wird im Abschnitt Hide URLs that shouldn’t be in search results besprochen: Es geht darum, zu verhindern, dass Google große Mengen für die Suche irrelevanter URLs überhaupt findet. Üblicherweise ist das vor allem für Filterfunktionen in Online-Shops oder vergleichbaren Modellen wichtig, in denen ohne die notwendigen SEO-Vorkehrungen quasi unendlich viele URLs generiert werden, weil so viele verschiedene Kombinationen aus Filteroptionen möglich sind.

In der Dokumentation unerwähnt bleiben in diesem Zusammenhang aber die beliebte Lösung über Link-Maskierung per JavaScript oder das etablierte PRG Pattern . Beide sorgen dafür, dass Nutzer die Seiten problemlos erreichen können, Google aber keinen crawlbaren Link findet und sich so auf die wirklich Google-relevanten URLs fokussieren kann.

Inhaltlich ist das Dokument nicht wirklich neu; hilfreich ist aber, dass es direkt von Google selbst kommt. Das macht es manchmal einfacher, den Implementierungsaufwand für die technischen Lösung zur Crawling-Steuerung zu rechtfertigen.

Anita Böhm
Anita Böhm
Consultant
Die Google Search Bar in eine Kommandozeile verwandeln

Dave Sottimano hat ein Tool aus der Kategorie „Wieso ist da noch keiner drauf gekommen“ gebastelt. Es erweitert die Google-Suche um selbst konfigurierbare Parameter. Mit diesen Shortcuts wird mit ein wenig Übung die Nutzung von Such-Einstellungen deutlich zeitsparender.

Ein paar Beispiele:

  1. X Ergebnisse aus einem bestimmten Zeitraum
  2. Sprung in ein Vertical (Bildersuche / Videosuche)
  3. Sprach- und Country-Einstellungen modifizieren

Während 1 und 2 auch über das Interface erreichbar sind, ist 3 schon eine deutliche Erleichterung:

“Changing country/lang params are annoying. Let's fix that.
Here we use ;g brfrde which translates to gl=br&hl=fr&lr=lang_de. In case you wanted to search for iphones in brazil, with french interface and german results.”

Das Beispiel zeigt, was mit der Erweiterung möglich ist. Weitere Shortcuts, die ich mir konfigurieren möchte:

  • site:domain.com -site:www.domain.com / Alles anzeigen, was nicht auf www.domain.com liegt
  • page=3 / shortcut für Ergebnisseite 3
  • spam / site + intitle-Suche für verschiedene Spam-Begriffe
  • loremipsum / site: +lorem ipsum

Alle diese Features sind natürlich auch irgendwie über das Interface oder URL-Manipulation zu erreichen. Aber vielleicht wird 2020 das Jahr, indem ich schneller google als Google antworten kann, indem ich mir Shortcuts konfiguriere.

Falls Du auch häufiger mal wissen möchtest, wie die SERPs in einem anderen Land und/oder einer anderen Sprache aussehen, oder immer wieder die selben Einstellungen an der Suche vornimmst, dann ist das Tool sicher hilfreich für Dich .

Behrend von Hülsen
Behrend von Hülsen
Consultant
Request Indexing unterm Weihnachtsbaum

Viele viele SEOs haben sich die Möglichkeit einzelne URLs über die GSC indexieren zu können zurück gewünscht. Der Weihnachtsmann hat der Google Search Central bestätigt, das sie alle brav waren und entsprechend gab es kurz vor Weihnachten die Bescherung: Der Request Indexing-Button ist wieder da 🎉.

Natürlich kommt man mit etwas Kreativität auch ohne dieses Feature über die Runden, aber im Alltag ist es doch schön manche Aufgaben einfach mit einem Klick auf einen Button lösen zu können.

Fragen? Immer gerne fragen!
Wir sind für Dich da.
Schreib uns gern jederzeit
eine E-Mail an [email protected] oder
ruf uns einfach kurz an: +49 40 22868040

Bis bald,
Deine Wingmen
Anckelmannsplatz 1, 20537 Hamburg, Germany
Wingmen Online Marketing GmbH Logo