Wirklich wahres Wingmen SEO Wissen f├╝r wache Webmarketer #136
Wingmen Online Marketing GmbH Logo
Behrend von H├╝lsen
Behrend von H├╝lsen
Consultant
­čĺ¬ ├ärmel hochkrempeln zum Jahresendspurt

Die Erfahrung zeigt: Das Jahr geht schneller rum als Du denkst. 

Es sind nur noch 12 Monate bis 2024, und auf Deiner To-do-Liste stehen jetzt noch die ganzen Kleinigkeiten, f├╝r die 2022 dann pl├Âtzlich doch keine Zeit mehr wahr. Also lass Dich nicht von diesem Januar Gef├╝hl einlullen, sondern zieh die guten Vors├Ątze durch und hau die Hacken in den Teer.

Wir haben auch schon losgelegt und Dir folgende Neujahrsgr├╝├če mitgebracht (einen Teil haben wir heimlich letztes Jahr schon geschrieben, aber psst ­čĄź):

  • Johan hat weiter mit Chat GPT gespielt und selbstverst├Ąndlich Verbesserungsvorschl├Ąge f├╝r RegEx

  • Andreas bringt Ideen zur Subdomain-Nutzung mit

  • Hannah erkl├Ąrt Dir was zum Spam-Update

  • Jolle nimmt f├╝r Dich das nofollow-Attribut unter die Lupe

  • Behrend hat brisante Bingbot-News f├╝r Dich

In diesem Sinne: Wir w├╝nschen Dir ein frohes, produktives und hoffentlich friedliches Neues Jahr,

Deine Wingmenschen

Was wir gelesen haben
Johan von H├╝lsen
Johan von H├╝lsen
Gesch├Ąftsf├╝hrender Gesellschafter
ChatGPT = RegExemplarischer Quatsch

Hach. Auch nach der ersten Euphorie ist ChatGPT ein tolles Spielzeug. Weniger um nutzbaren Content zu generieren, sondern eher, um erste Ideen zu sammeln und den Kopf freizubekommen.

Lily Ray hat ChatGPT genauso benutzt: ÔÇ×Schreib mir eine RegEx f├╝r die Search Console, mit der ich alle URLs filtern kann, die im Folder /news/ liegen und "2022" enthalten."

Das hat gar nicht sooo schlecht funktioniert. ChatGPT hat mit einer RegEx und einer Erl├Ąuterung geantwortet:

ÔťůEs ist eine funktionierende RegEx

ÔťůEs gibt eine Erl├Ąuterung zu den einzelnen Bestandteilen

ÔťůEs gibt 3 Testf├Ąlle

Aber, wenn Du Dir die RegEx ansiehst, dann f├Ąllt Dir sicher auch direkt auf, dass das nicht so richtig funktioniert:

^https?:\/\/(www\.)?[^\/]*\/news\/[^\/]*2022[^\/]*

Denn die RegEx funktioniert zwar, aber von den drei Testf├Ąllen, die die RegEx angeblich l├Âsen soll, funktioniert einer nicht:

http://www.example.com/news/category/article-2022.html

Aber warum?

Das http ist kein Problem. Aber der Folder /category/ ist nicht vorgesehen von der RegEx. Die sucht n├Ąmlich direkt unterhalb von /news/ nach 2022 (weil mit [^\/]* nicht nach dem Vorkommen aller Zeichen au├čer / Unterordner und deren Ausschluss, sondern nur nach Vorkommen von 2022 direkt nach /news/ gesucht wird).

Wir k├Ânnen die RegEx deutlich einfacher schreiben:

1) Wir kennen Protokoll und Subdomain, also fangen wir damit an, dass wir das eindeutig machen und am Beginn der URL (^) danach suchen:

^https://www.example.com

2) Dann suchen wir nach ÔÇ×irgendwas" gefolgt vom Ordner /news/:

.*/news/

3) Danach darf wieder irgendwas kommen, gefolgt von 2022:

.*2022

Die vollst├Ąndige RegEx sieht also vereinfacht (und ohne das f├╝r die GSC unn├Âtige escapen der / ganz einfach aus:

^https://www.example.com.*/news/.*2022

Und das ist doch so einfach, dass wir das auch ohne ChatGPT auf 90% der Alltags-Use-Cases adaptieren k├Ânnen.

Unser Learning: ChatGPT pr├╝ft seine Aussagen nicht auf Korrektheit, sondern baut nur etwas, das statistisch nach einer passenden Antwort aussieht. Selbst wenn uns ChatGPT Testf├Ąlle zur Verf├╝gung stellt, m├╝ssen wir schauen, ob das auch wirklich funktioniert. Wenn wir das nicht selbst sehen, dann gibt es zum Gl├╝ck gro├čartige Testing-Tools wie regex101.com, die uns dabei helfen: Validierung der Test-URL aus dem ChatGPT-Beispiel von Lily Ray in regex101.com. Zu sehen ist, dass die RegEx aus dem ChatGPT-Beispiel nicht die Beispiel-URL matched.

Andreas R├Âne
Andreas R├Âne
Consultant
Frohe neue Hostnames

In meinem kleinen Artikel m├Âchte ich Dich heute einmal in meine Gedanken mitnehmen auf eine lustige Reise durch die Welt der Subdomains.

Es gibt viele Gr├╝nde eine Subdomain anzulegen. Seien sie gerechtfertigt oder auch nicht, werden sie f├╝r Blogs, Ticketsysteme, ein Extranet oder auch f├╝r CDNs (Content Delivery Network) gerne genutzt.

Wir leben in Zeiten, in denen Dein Server eigentlich l├Ąngst mit HTTP2 laufen sollte und es f├╝r HTTP1.1 nur wenige Ausreden von Deinem Systemadministrator geben kann, die ich noch gelten lassen w├╝rde. Subdomains sind f├╝r CDNs in der Regel kontraproduktiv, da der erneute Verbindungsaufbau zum neuen Server den Ladevorgang eher ausbremst, anstatt hilfreich zu sein.

Dazu kommen weitere Punkte, die Du bei Subdomains beachten solltest. Zum Beispiel die Einrichtung von so genannten Wildcard-Subdomains (*.meinedomain.tld). Diese Art der Subdomains f├╝hrt dazu, dass egal, was der Benutzer vor .meinedomain.tld eingibt, zu einer bestimmten IP-Adresse aufgel├Âst wird. Diese Konfiguration sehe ich eher als problematisch an, denn hier m├╝ssen wir Folgendes beachten:

Wir m├╝ssen die Subdomains im Blick behalten, f├╝r alle ben├Âtigten Subdomains muss ein virtueller Server die richtige Website ausliefern und f├╝r jegliche andere (nicht gewollten Subdomains) muss eine entsprechende 301-Weiterleitung eingerichtet sein, um unerw├╝nschte Nebeneffekte zu vermeiden.

Denken wir z.B. einmal daran, dass eine solche Weiterleitung fehlt und alle nicht ben├Âtigten Subdomains auf unserem eigentlichen Onlineshop aufl├Âsen. Ich kann unseren Onlineshop also unter meinedomain.tld und auch www.meinedomain.tld genauso wie test123.meinedomain.tld aufrufen. In jedem Fall wird der Inhalt mit dem Statuscode 200 (OK) ausgeliefert. Geschieht dies, so erzeugen wir Potenzial f├╝r Duplicate Content und Dir nicht so positiv zugewandte Personen k├Ânnten versuchen, die Inhalte unter einer Subdomain wie mist-kauft-man-bei.meinedomain.tld oder anderen kreativen Subdomains zum Ranken zu bekommen, in dem sie einfach Links auf solche Inhalte setzen und Google verwirren.

Um der Wildcard-Problematik zu entkommen, empfehle ich Dir stattdessen, mit den Domain-Records im DNS eine Art Inventar der Subdomains zu haben. Neue Subdomains werden klassisch in der IT "beantragt" und nur solche Subdomains werden dann auch zu einer IP-Adresse aufgel├Âst. Wir SEOs k├Ânnen so nicht mehr von Subdomains ├╝berrascht werden und kennen das Portfolio unserer Domain.

Also, alles paletti sollte man annehmen, oder? Nicht ganz, denn auch in diesem Fall m├╝ssen wir die Subdomains im Blick behalten. Subdomains, f├╝r die es nach einem Relaunch keine Inhalte mehr gibt und auch kein Webserver mehr antwortet, darf es so nicht geben. In so einem Fall sollte eine Subdomain so konfiguriert werden, dass es f├╝r wichtige URLs noch sinnvolle 301-Weiterleitungen gibt oder die Subdomain gel├Âscht wird.

In meinem Beispiel wurde ├╝ber 4. Mio. Mal in einem Zeitraum von 3 Monaten versucht, die robots.txt einer Subdomain abzurufen, was jedoch nicht gelang, da die Subdomain auf eine IP-Adresse zeigte, auf dessen Server kein Webserver mehr ausgef├╝hrt wurde. Kurz vor Weihnachten wurde die Subdomain gel├Âscht, da es auf dieser keine wichtigen URLs mehr gab, die weitergeleitet werden konnten.

Fetch Report der robots.txt in der GSC

Wie wir sehen, bestanden fast 100% der Anfragen von Google darin, die robots.txt- Datei abzurufen. 

Anfragen der robots.txt in der GSC

Und ├╝ber den Tag verteilt wurde zwischen 32.000 und 72.000 Mal versucht, die robots.txt abzurufen.

Aufrufe der robots.txt in der GSC

Dies summiert sich in drei Monaten locker auf ├╝ber 4 Mio. Requests, die Google nicht verarbeiten kann, da der Server nicht mehr antwortet. All dies sind unn├Âtige Crawl Requests, die dazu f├╝hren, dass unn├Âtig Energie verbraucht wird, aber auch dazu f├╝hren kann, dass andere ÔÇô wichtigere ÔÇô Dinge nicht gecrawlt werden.

Fazit

Subdomains machen von Fall zu Fall noch Sinn, gerade wenn CMS oder CMS vom Shop-System voneinander getrennt gehostet werden sollen. Als alter Admin rate ich meist sogar dazu, da es gleich sehr viele Kompatibilit├Ątsprobleme und Wechselwirkungen zwischen den Systemen erst gar nicht entstehen l├Ąsst. Denn sehr viele Probleme mit Software- und Systembibliotheken treten dann auf, wenn CMS A ein Update erfordert, Shop-System B aber noch nicht mit den neuesten Bibliotheken umgehen kann. Daher gilt auch hier ÔÇ×Es kommt drauf an" und eine pauschale Aussage kann es nicht geben. Nur der Hinweis, dass wir SEOs bei Subdomains lieber ein oder zweimal mehr hinschauen sollten.

Hannah Rohde
Hannah Rohde
Junior Consultant
Happy new Spambrain

Am 14. Dezember hat Google ein Link Spam Update ausgerollt ÔÇô dieses soll den Impact von Linkbuilding relativieren. Google soll in der Lage sein, gekaufte Links und Seiten, die nur f├╝r Linkbuilding erstellt sind, zu erkennen. Hierf├╝r nutzt Google SpamBrain, das AI-System, das seit 2018 Herzst├╝ck von Googles Spamerkennung ist. Google k├╝ndigte an, dass dies zu Rankingver├Ąnderungen f├╝hren kann, da die Auswirkungen der Links neutralisiert werden. Bisher konnte ich bei meinen Kunden nichts erkennen ÔÇô┬á aber wir Wingmen sind ja auch seit jeher absolut gegen unnat├╝rliches Linkbuilding.

Im Zuge des Updates m├Âchte ich Dir noch einmal die von Google empfohlenen Vorgehensweisen, Links zu kennzeichnen nahelegen. Google bezieht nicht nur die auf Deine Seite zeigenden Links bei dem Update mit ein, sondern auch, wie Du Links markierst, die nach au├čen zeigen.

Affiliate-Links markierst Du mit einem rel="sponsored" Tag.

Links in Gastbeitr├Ągen markierst Du mit rel="nofollow".┬áDazu erf├Ąhrst Du unten mehr im Artikel von Jolle.

Was kannst Du also tun, wenn zu viele k├╝nstliche Links auf Deine Seite zeigen? Mit einer Disavow-Liste in der GSC kannst Du Google mitteilen, dass Du nicht m├Âchtest, dass Links von den Seiten f├╝r Dich z├Ąhlen. Das hilft Dir allerdings nicht, wenn Google das vor Dir entdeckt hat und die Links eh schon durch den Algorithmus neutralisiert wurden. John Mueller hat auf Mastodon gesagt "If you've built the foundation of your site on bad links for a longer period of time, that will have a lasting effect even if you suddenly fix some things." und vergleicht eine Linkbuilding-Strategie mit einem Kartenhaus ÔÇô wenn die Karten entfernt werden, hat das Haus kein stabiles Fundament mehr. M├Âchtest Du eine langfristige Strategie f├╝r Deine Seite, dann setz bitte nicht auf gekaufte Links, PBNs und andere unnat├╝rliche Linkbuilding-Ma├čnahmen.

Das Update war f├╝r zwei Wochen angek├╝ndigt, dauert nun aber ein wenig l├Ąnger, da aufgrund der Feiertage mehr Zeit ben├Âtigt wird.

Jolle Lahr-Eigen
Jolle Lahr-Eigen
Consultant
Falls Du dem Nofollow-Attribut noch nicht ganz folgen kannstÔÇŽ

... hat Dir Mark Williams-Cook einen kleinen Guide bei Wix zusammengeschrieben. Mark ist der Mann hinter dem alsoasked.com-Tool und wom├Âglich hat er es f├╝r seinen Blogpost eingesetzt: Screenshot aus dem Tool alsoasked.com bei Abfrage von "nofollow"

Das Nofollow-Attribut f├╝r Links gibt es schon seit 2005 und wurde eingef├╝hrt, um Linkspam zu bek├Ąmpfen. Gerade die Kommentarspalten von Blogs sind damals regelm├Ą├čig mit Links ├╝bergelaufen, mit denen Spammer Traffic auf ihre Seiten zu holen versuchten. Die Blogbetreiber wollten aber keinesfalls f├╝r diese Links von ungewisser Qualit├Ąt gerade stehen und konnten per rel="nofollow"-Direktive Suchmaschinen signalisieren, dass sie dem Link nicht zu folgen brauchen.

Da Linkkauf von Google aus verboten, der Linktausch zwischen Partnern, Sponsoren & Co. jedoch durchaus ├╝blich ist im Netz, bietet das Attribut die M├Âglichkeit, mit offenen Karten zu spielen, um nicht als Linkspammer missverstanden zu werden. Das empfiehlt Google jedenfalls in seiner Spam-Policy.

2019 kamen die Pr├Ązisierungen "ugc" und "sponsored" dazu. Links zu Partner und Sponsoren k├Ânnen seither das "sponsored"-Attribut bekommen. User Generated Content wie Kommentare und Bewertungen qualifizieren sich f├╝r das "ugc"-Attribut. Es besteht aber keinerlei Notwendigkeit "ugc" und "sponsored" statt "nofollow" zu verwenden.

Indexierungs-Hinweise trotz "nofollow"

Die bedeutende ├änderung von 2019 war aber folgende: Google beh├Ąlt es sich vor, "nofollow"-Links als Hinweis f├╝r die Entscheidung zu verwenden, welche URLs im Suchindex auftauchen und welche nicht. Auch wenn Seitenbetreiber:innen die Links nicht direkt empfehlen wollen.

"Links contain valuable information that can help us improve search, such as how the words within links describe content they point at. Looking at all the links we encounter can also help us better understand unnatural linking patterns. By shifting to a hint model, we no longer lose this important information, while still allowing site owners to indicate that some links shouldn't be given the weight of a first-party endorsement."

Daraus folgt auch, dass Google den Links nach Gutd├╝nken durchaus folgt, um neue Inhalte im Internet zu entdecken und anhand der Linktexte zu ermitteln, worum es auf den Seiten geht.

Sind "nofollow"-Links ein Problem?

Mark weist darauf hin, dass eine Mischung aus Links ohne besonderes Attribut einerseits und "nofollow"-Links andererseits die Regel und v├Âllig nat├╝rlich ist. Du solltest also nicht extra versuchen, "nofollow"-Links auf Deiner Seite zu entfernen oder Links dieser Art auf Deine Seite zu vermeiden.

Und auch wenn sich Linkbuilder regelm├Ą├čig ├Ąrgern, wenn sie einen Link von einer anderen Publikation ergattern konnten, dieser aber auf "nofollow" gesetzt ist: Traffic, der ├╝ber diesen Link auf Deine Seite kommt, ist auch ohne die Linksignale n├╝tzlich. Echter Traffic ist echter Traffic, auch wenn er aus irgendeiner Kommentarspalte eines Forums kommt.

Alle Links auf "noindex"-Seiten werden fr├╝her oder sp├Ąter als "nofollow" interpretiert

Theoretisch ist es m├Âglich, das Meta-Tag im Header einer Seite auf "noindex, follow" zu setzen, um zu signalisieren: Die URL soll nicht in den Suchergebnissen auftauchen, die verlinkten Seiten k├Ânnen aber gecrawlt und indexiert werden.

In der Praxis interpretiert Google das Meta-Tag aber ├╝ber kurz oder lang so, als w├Ąre es auf "noindex, nofollow" gesetzt. Inwiefern Google den Links dann doch noch nachgeht und ihnen Bedeutung beimisst, entscheidet wiederum Google selbst.

"nofollow"-Links auf interne Seiten?

Mark sieht darin keine Nachteile:

"There is no specified downside to using nofollow on internal links to give Google further hints about which pages may not be important."

Da bin ich anderer Meinung: Wenn ich bestimmte Seiten aus der Suche ausschlie├čen oder mein Crawlbudget sinnvoll einsetzen m├Âchte, dann sind robots.txt, noindex per Meta- oder X-Robots-Tag die besseren Werkzeuge. Alles andere lenkt vom eigentlichen Hebel ab.

Oder wie siehst Du das? Ich freue mich ├╝ber Dein Feedback.

Behrend von H├╝lsen
Behrend von H├╝lsen
Consultant
Neues Jahr, neuer Bingbot User Agent

Genau genommen hat Microsoft die User Agent ├änderung f├╝r den Bingbot schon vor Jahren angek├╝ndigt. Aber was soll ich machen, es ist der erste Newsletter des Jahres, da ist ein Neujahrsbezug in der ├ťberschrift unabdingbar.

Und immerhin hat Microsoft, dank einer sehr konzernigen Umsetzungsgeschwindigkeit, jetzt auch ein Neujahrsthema f├╝r 2023 draus gemacht. Frei nach dem Motto ÔÇ×was lange w├Ąhrt, wird endlich gut" hat man im Juli 2022 tats├Ąchlich damit begonnen, den neuen User Agent ausrollen. ├ähnlich vorsichtig wie Google beim Evergreen Googlebot wurde auch das Crawling des Evergreen Bingbot vorsichtig und St├╝ck f├╝r St├╝ck hochgefahren.

Wie Barry Schwartz kurz vor Weihnachten berichtete, hatte der Evergreen Bingbot im Herbst 50% des Crawlings ├╝bernommen. Damit das Bingbot-Crawling-Team beruhigt seine Feiertage genie├čen konnte, hat man dann die endg├╝ltige Umstellung ins neue Jahr geschoben. Lob und Anerkennung an die Verantwortlichen, dem Crawling-Team keinen Go-live vor Weihnachten und Neujahr aufzun├Âtigen.

Nun, wenn alle so langsam das Immergr├╝n wieder aus dem Wohnzimmer verbannen und die Feiertagssaison sich dem Ende neigt, kann es aber losgehen. Wir sind gespannt.

Und was bedeutet das f├╝r Dich?

Hast Du Bingbot auch von irgendwelchen Paywalls ausgeschlossen oder so? Dann aber fix pr├╝fen, ob das f├╝r den neuen Bingbot noch so klappt, wie gewohnt. Wie Bing mit Paywall-Inhalten umgeht, hat sich Anita ├╝brigens auch einmal genauer angeschaut. Und falls Du Publisher bist, solltest Du Dir auch unbedingt mal die Bing News PubHub Integration anschauen, die Dir Nora vorgestellt hat.

Ein Blick in Deine Bing Webmaster Tools kann nicht schaden, denn das tut man ohnehin zu selten.┬á Das kann nat├╝rlich aber nachtr├Ąglich noch zu Deinen Vors├Ątzen f├╝r 2023: Bing Webmaster Tools nicht immer vergessen.

Es mag nicht so viel Traffic ├╝ber Bing kommen, aber die Bing Webmaster Tools k├Ânnen Dir Fehler aufzeigen, die Dir in der GSC vielleicht nicht auffallen.

Anita hat in ihrem Artikel ÔÇ×Spotlight auf die BWMT" schon einige Vorteile der Bing Webmaster Tools f├╝r Dich zusammengefasst. Falls Du aber noch mehr Gr├╝nde brauchst, Dir die Bing Webmaster Tools einmal anzuschauen, dann hat Hannah Bing und Google f├╝r Dich miteinander verglichen.

Vorherige AusgabeN├Ąchste Ausgabe
 
Fragen? Immer gerne fragen!
Wir sind f├╝r Dich da.
Schreib uns gern jederzeit
eine E-Mail an kontakt@wngmn.de oder
ruf uns einfach kurz an: +49 40 22868040

Bis bald,
Deine Wingmen
Anckelmannsplatz 1, 20537 Hamburg, Germany
Wingmen Online Marketing GmbH Logo