Wirklich wahres Wingmen SEO Wissen f├╝r wache Webmarketer #122
Wingmen Online Marketing GmbH Logo
Johan von H├╝lsen
Johan von H├╝lsen
Gesch├Ąftsf├╝hrender Gesellschafter
­čśÁÔÇŹ­čĺźAutomatisierte Crawl-Budget-Verwirrung durch neue Crawler

Moin! Und wieder einmal scheitert der Versuch, alle Artikel in einer einzigen aussagekr├Ąftigen Headline zusammenzufassen.

Dabei ist echt viel los. Das Pfund st├╝rzt ab. In Berlin st├╝rzen Weltrekorde und Flo st├╝rzt sich auf die SEO-Wiesn .

Was ich aber versucht hatte zusammenzufassen:

  • Matt ist verwirrt (├╝ber Zitatmengen bei wissenschaftlichen Werken)

  • Andreas ist entspannt (weil er in Garys News keine News finden kann)

  • Nils ist offen f├╝r einen neuen Crawler

  • Johan pr├╝ft automatisiert ob Text automatisiert erstellt wurde

Jetzt aber ran an die Wortwolken:

Was wir gelesen haben
Matthias P├╝lz
Matthias P├╝lz
Trainee
Zahlenwirrwarr in der Google SERP

Hast Du bei Google in den letzten Tagen einmal nach wissenschaftlichen oder medizinischen Artikeln gesucht?

Falls ja, ist Dir vielleicht etwas aufgefallen: Bei wissenschaftlichen und medizinischen Publikationen wird im Snippet neuerdings nicht mehr nur die ├╝bliche Meta Description ausgespielt, sondern auch der Name des Autors bzw. der Autorin, das Erscheinungsjahr der Ver├Âffentlichung und die Zahl, wie h├Ąufig der Artikel von anderen Quellen zitiert wurde.

Das sieht in der SERP dann folgenderma├čen aus:

Wissenschaftliches Snippet mit neuem Feature in der Description.

Oder so:

Auszug aus der SERP mit wissenschaftlichen Publikationen

Sieht erstmal toll aus, nicht wahr?

Stimmt. Allerdings ist hier Vorsicht geboten! Bei genauerer Betrachtung f├Ąllt n├Ąmlich auf, dass sich die Anzahl der Zitate, die in der SERP angezeigt wird, meist nicht mit denen des Artikels decken. Um bei unserem Beispiel von gerade zu bleiben:

Wissenschaftliche Publikation: What is search engine optimization: SEO?, zitiert von 57 weiteren Quellen.

Hier ist auf der linken Seite die Rede von lediglich 57 Quellen, die auf die Publikation verweisen, und nicht von 147 wie im Snippet bei Google behauptet.

Besonders kurios wird die Angelegenheit, wenn man nach einem speziellen Werk sucht: Hier kann es n├Ąmlich passieren, dass f├╝r das gleiche Werk pl├Âtzlich unterschiedliche Zahlen angezeigt werden. Im folgenden Beispiel ist demnach beim ersten Ergebnis die Rede von 249 Zitationen, beim zweiten Ergebnis von 250:

Zwei Ergebnisse zu einer wissenschaftlichen Publikation aus der SERP bei Google

Da stellt sich doch die Frage: Woher nimmt sich Google die Zahl, die im Snippet ausgespielt wird und wieso weicht sie mitunter so deutlich von der echten Anzahl ab? Es lohnt sich sicher, das Ganze in n├Ąchster Zeit etwas genauer im Auge zu behalten.

Andreas R├Âne
Andreas R├Âne
Consultant
Crawl-Budget hin, Crawl-Budget her

Anfang des Monats hat Gary Illyes wieder einmal eine Frage zum Crawl-Budget einer Website beantwortet . Dabei ging es um die Frage, ob sich die unterschiedlichen Crawler von Google eigentlich das Crawl-Budget einer Website teilen. Und die Antwort lautet "ja" und er ging noch einen Schritt weiter und betonte noch einmal, dass es auch f├╝r jeden Host (also auch Subdomains) ein unterschiedliches Crawl-Budget gibt. Warum mich diese Antwort erst einmal kalt l├Ąsst? Ganz einfach: Da wir das eigentliche Crawl-Budget f├╝r einen Host nicht kennen und die wenigsten Websites ├╝berhaupt ein Problem mit dem Crawl-Budget haben, ist diese Information erst einmal so interessant wie ein SEO-Streit zwischen Subdomain und Folder.

Hintergrund: Die Antwort ist eigentlich f├╝r uns SEOs nichts Neues. Schon lange war klar, dass das Crawl-Budget auch f├╝r jegliche Content-Elemente wie Bilder, Videos, PDFs usw. z├Ąhlte. Interessant k├Ânnte es aber werden, wenn sich wirklich alle Google-Bots das Crawl-Budget teilen m├╝ssten. Darunter\ befinden sich nat├╝rlich Crawler, die erstens nichts mit der organischen Suche zu tun haben und zweitens ggf. sogar erst durch Benutzerinteraktion (Google Read Aloud-Dienst) ausgel├Âst werden. Alleine schon der Gedanke an einen Benutzer, der eine Anfrage an den Google Read Aloud-Dienst bei einem ├╝berzogenen Crawl-Budget stellt, l├Ąsst schon vermuten, dass wir nicht alle Crawler ├╝ber einen Kamm scheren sollten bzw. k├Ânnen.

Daher gilt f├╝r uns: Sicherlich handelt es sich dabei um eine interessante Information, die aber nicht unbedingt sehr viel Neues auftut.

Daher gilt weiterhin: Vermeide unn├Âtige URLs da wo sie entstehen. Gerade wenn es sich um Parameter-URLs wie Filterfacetten oder eine interne Suchfunktion handelt entstehen an diesen Stellen h├Ąufig unn├Âtig viele URL-Variationen mit nahezu identischen Inhalten. Neben der Tatsache, dass solche URLs die URL-Warteschlange von Google verstopfen und damit unn├Âtig an unserem Crawl-Budget nagen, bringen diese URLs nat├╝rlich weitere Probleme f├╝r uns SEOs mit sich (Near DC, Soft 404, etc.).

Nils Warnick
Nils Warnick
Consultant
Macht ein Crawler mehr den Kohl fett?

Bei den Wingmen nehmen wir Announcements ├╝ber neue Tools in der Regel so gleichg├╝ltig entgegen wie ein Hamburger den Nieselregen dieser Jahreszeit. Das h├Ąngt damit zusammen, dass beides relativ h├Ąufig vorkommt. Der Unterschied dabei ist, dass man beim Regen wei├č, was einen erwartet. Wenn ein neues Tool angek├╝ndigt wird, sind h├Ąufig erstmal viele Versprechungen dabei, von denen man im Vorfeld nicht wei├č, ob sie auch gehalten werden k├Ânnen.

Das gilt f├╝r Tools im Allgemeinen und auch f├╝r (SEO-)Crawler. Davon haben wir auch schon einige kommen und gehen sehen. Nun sind wir allerdings ein wenig hellh├Âriger geworden als sonst. Das liegt an dem " Artikel Horseman SEO Crawler. And why you REALLY (!) need it. " von Christian H├Ąnsel. Er erz├Ąhlt darin von ein paar Features des Crawlers "Horseman", der von Chris Johnson aka @defaced ins Leben gerufen wurde. Von Chris habt ihr wom├Âglich schon mal ein SEO-Tool benutzt, davon hat er schon so einige programmiert. Ich finde zum Beispiel seinen Layout Shift Generator ganz nett. Dort kann man eine URL reinschmei├čen und bekommt ein kleines GIF, das CLS-Quellen in einem bunten Rahmen hervorhebt.

Seit einer Weile arbeitet er aber schon an dem Crawler. Der Artikel von Christian hebt insbesondere die M├Âglichkeiten durch die Verwendung von Headless Chrome und dem damit verbundenen Zugriff auf JavaScript hervor. Die M├Âglichkeit, eigene Code-Schnipsel im Crawler zu erstellen und zu verwenden, klingt schon sehr spannend. Auch wenn man daf├╝r nat├╝rlich erstmal Javascript beherrschen oder┬á zumindest ein geeignetes St├╝ck Code per Copy/Paste einf├╝gen k├Ânnen muss.

Im Gegensatz zu vielen anderen Tools von Chris ist der Crawler allerdings nicht kostenlos verf├╝gbar. Zugriff erh├Ąlt man, wenn man ihn bei Github sponsert. Falls Dir Dein bisheriger Werkzeugkasten an zu vielen Stellen Grenzen aufzeigt und dich ein neues Tool nicht abschreckt, dann k├Ânnte Horseman f├╝r Dich interessant sein. Insbesondere bei der potentiellen Individualisierung sehen wir hier viele M├Âglichkeiten. Wenn Dir der Screaming Frog bisher immer gereicht hat, brauchst Du aber nicht umsteigen.

Johan von H├╝lsen
Johan von H├╝lsen
Gesch├Ąftsf├╝hrender Gesellschafter
Machine vs. Machine

Im Helpful Content Update ist eine Gruppe betroffener Seiten relativ klar: Diejenigen mit mittelm├Ą├čigem oder schlechtem automatisierten Content.

Stellt sich also noch mal die Fragen: D├╝rfen wir denn jetzt automatisierten Content verwenden oder nicht?

F├╝r mich ist die Antwort ganz klar: Nat├╝rlich d├╝rfen wir. Solange der Content gut genug ist. Und das meint nicht nur Orthographie und Satzbau, sondern vor allem den Inhalt. Google ist es am Ende egal, wie der Content zustande kommt: Ob automatisiert generiert, handgeschrieben und digitalisiert, gesprochen und transkribiert oder wie auch immer. Wichtig ist der Inhalt des Contents.

Technisch ist es vergleichsweise einfach, auch gut gemachte Automatisierungen zu erkennen . Aber es geht nicht darum, wie der Text erstellt wurde, sondern ob er hilfreich und qualitativ hochwertig ist.

Nat├╝rlich gibt es bei der Automatisierung ein paar Probleme zu bedenken: Erstmal habe ich keinen Autor, dem ich den Text zuweisen kann. Aber nat├╝rlich k├Ânnte man den Weg gehen, dass man den menschlichen Reviewer, der die Abnahme vor dem Livestellen ├╝bernimmt, als Autor f├╝hrt.

Wie machst Du das? Nutzt Du GPT-3 und Konsorten, um Content aus Deinen Briefings werden zu lassen? L├Ąsst Du den Bot gleich ganze Artikel schreiben? Oder einen Vorschlag, damit Deine Autoren einen Ansatzpunkt haben?

Vorherige Ausgabe N├Ąchste Ausgabe
Fragen? Immer gerne fragen!
Wir sind f├╝r Dich da.
Schreib uns gern jederzeit
eine E-Mail an kontakt@wngmn.de oder
ruf uns einfach kurz an: +49 40 22868040

Bis bald,
Deine Wingmen
Anckelmannsplatz 1, 20537 Hamburg, Germany
Wingmen Online Marketing GmbH Logo