Wirklich wahres Wingmen SEO Wissen f├╝r wache Webmarketer #162
Wingmen Online Marketing GmbH Logo
Andreas R├Âne
Andreas R├Âne
Consultant
­čŹż Die gro├če Sause ist vorbei

10 Jahre Wingmen und wir haben immer noch Spa├č an unserer Arbeit. Obwohl ich jetzt erst knapp 2 Jahre ein Wingmensch bin, f├╝hlt sich das Ganze irgendwie aber schon viel l├Ąnger an. Und, oh Gott, es f├╝hlt sich immer noch gut an! :-D

Die Collage besteht aus 8 Bildern, die die 10-Jahres-Feier der Wingmen zeigt. Die Collage selbst ist mit Konfetti und goldenen Sternen verziert, die einen festlichen Rahmen bilden. Das erste Bild zeigt Florian Stelzner, der vor einer Popcornmaschine posiert. Er tr├Ągt ein braunes T-Shirt, w├Ąhrend er selbstbewusst in die Kamera schaut (Selfie). Das zweite Bild pr├Ąsentiert die Eventlocation Billewerk mit imposanten Backsteingeb├Ąuden, die von festlicher Partybeleuchtung erhellt werden.Im dritten Bild erhalten Florian und Johan ein Geschenk von Justus ├╝berreicht. Das Geschenk ist ein gro├čes rechteckiges Paket, das mit den Logos von Wingmen und der Zahl 10 verziert ist. Das vierte Bild zeigt mehrere Menschen, die in erh├Âhten Strandst├╝hlen sitzen. Im Hintergrund sind Backsteinw├Ąnde zu erkennen. Auf dem f├╝nften Bild ist ein Platz mit Bierb├Ąnken und festlicher Dekoration zu sehen. Im Hintergrund erstrecken sich die Backsteingeb├Ąude.Die sechste Aufnahme zeigt eine belebte Partylocation mit Bierb├Ąnken, Food Trucks und einer fr├Âhlichen Menschenmenge.Im siebten Bild spielen Andreas und Hannah ein riesiges Vier-Gewinnt-Spiel.Das achte und letzte Bild zeigt Johan beim Bullenreiten. Er sitzt auf dem Bullen und schaut herausfordernd in die Kamera.

Am Freitag durften wir mit Kunden, Freunden und Familien die 10 wundervollen Jahre Revue passieren lassen, fachsimpeln, feiern, essen und einfach Spa├č haben. Daf├╝r haben sich Flo und Johan einiges einfallen lassen. Ein riesen fettes Dankesch├Ân geht hier an Kaddy f├╝r die gro├čartige Orga. ÔŁĄ´ŞĆ

Jedoch hat uns in der Woche auch fachlich einiges besch├Ąftigt und das m├Âchten wir Dir nat├╝rlich nicht vorenthalten:

  • Anita erkl├Ąrt Dir, warum Google keinen Bock mehr auf Ping Pong hat

  • Johan berichtet ├╝ber Fachsimpelei mit Fischerl├Ąnder & Co. ├╝ber die Suchmaschine Neeva

  • Nora zeigt Dir, was Du aus Hackerangriffen auf Websites lernen kannst

  • Jolle schreibt ├╝ber das leidige Thema, wie lange Redirects bestehen bleiben sollten

  • Anita berichtet, warum Google damit droht, kanadische Publisher aus dem Index zu kegeln

Viel Spa├č beim Lesen

Deine Wingmenschen

Was wir gelesen haben
Anita B├Âhm
Anita B├Âhm
Consultant
Google hat keinen Bock mehr

...auf Sitemap Ping Spam und setzt stattdessen lieber auf ordentlich und gewissenhaft gepflegte lastmod Angaben.

Ähm Moment - Worum geht's?

Das Sitemap Protocol existiert schon ne ganze Weile. Seit 2005, um genau zu sein. Es wurde damals mit dem Ziel, Suchmaschinen bei der Discovery neuer URLs zu unterst├╝tzen, eingef├╝hrt. Auf der Basis stellte es ebenfalls eine Hilfe beim Scheduling von Crawls entdeckter URLs dar. Der gro├če Erfolg des Sitemap Protocols zeigt sich auch dadurch, dass ├╝ber lange Jahre hinweg keine ├änderungen notwendig waren.

Nun tut sich aber was:

"While the general idea is still useful, some aspects have become less practical in today's internet."

Sayonara, Sitemap Ping

Google wird auch direkt konkret in der Ank├╝ndigung vom 26. Juni 2023:

"To that end, we're announcing deprecation of the sitemaps "ping" endpoint and providing additional recommendations for the use of the lastmod element."

"You can still submit your sitemaps through robots.txt and Search Console, but the HTTP requests ("pings") to the deprecated REST endpoint will result in a 404 error."

Also Klartext: Die M├Âglichkeit, Sitemaps an Google zu pingen, wird es nicht mehr lange geben. Sie wird in den n├Ąchsten 6 Monaten abgeschaltet. Also k├Ânnen wir grob davon ausgehen, dass Sitemap Ping ab 2024 Geschichte ist.

Bing hat Sitemap Ping ├╝brigens schon im Mai 2022 ad acta gelegt:

"Despite its promise, recent evaluations have shown that it was often subject to misuse by spammers. As a result, we will be deprecating the ability for anonymous sitemap submissions starting today."

Google begr├╝ndet die Abschaffung ├Ąhnlich:

"Our internal studies ÔÇô and also other search engines such as Bing ÔÇô tell us that at this point these unauthenticated sitemap submissions are not very useful.

In fact, in the case of Google Search, the vast majority of the submissions lead to spam."

Also: Aus die Maus. Sitemap Ping ist nicht das erste (und sicherlich auch nicht das letzte) Feature, das aufgrund von Missbrauch abgeschaltet wurde. Schon schade, wenn das Fehlverhalten einiger weniger solche Ma├čnahmen zur Folge hat, die am Ende uns alle treffen.

Die Reaktionen auf das Ende von Sitemap Ping sind auch eher verhalten:

"i can't tell you how many times the google sitemaps ping URL came to the rescue (client didn't want GSC, client wouldn't give me GSC access and didn't know how to use the sitemap tool, etc.). another googlefail for the books"

ÔÇô Ian Cappeletti auf Twitter

(Wobei der Wegfall von Sitemap Ping in solchen "spa├čigen" F├Ąllen vermutlich eher das geringste Problem ist...)

"Not great the sitemap ping endpoint is going away...

...but the good news is that the Google team confirmed the lastmod has more weight when it comes to crawling and scheduling."

ÔÇô Adam Gent auf Twitter

(Immer positiv denken!)

Auch Johan kommentiert diese Neuigkeit in unserem Slack mit begrenzter Begeisterung:

"Das ist bitter: Sitemap Ping ist die einzige Variante, teilweise tote Sitemaps zu aktivieren und hat hervorragend funktioniert, auch in den zahlreichen F├Ąllen von widerspenstigen Sitemaps."

Ach ja, wenn Du Sitemap Ping irgendwo als Feature verbaut hat, musst Du Dir keine Gedanken machen und auch nicht zwingend aktiv werden:

"Any existing code or plugins which use this endpoint will not cause problems for Google Search; you don't need to make any changes (but using the endpoint will also not do anything useful)."

Sowohl Google als auch Bing weisen in ihren Meldungen auf die weiterhin bestehenden M├Âglichkeiten hin, die Sitemaps

  • in der robots.txt zu referenzieren

  • ├╝ber die Google Search Console bzw. die Bing Webmaster Tools zu submitten

Dar├╝ber hinaus dropt Bing auch noch einen Hinweis auf IndexNow:

"Additionally, we encourage all webmasters to adopt https://www.indexnow.org to inform Bing and other search engines real time of latest content changes on their websites."

Dazu hatten Jolle in Ausgabe 147 (Ô×í´ŞĆ Wirksames Crawling- und Indexierungsmanagement) und Johan in Ausgabe 74 (Ô×í´ŞĆ Ein MiniWow f├╝r IndexNow) etwas geschrieben, falls Du da nochmal reinlesen magst.

Lang lebe lastmod

W├Ąhrend die ├ära des Sitemap Ping zu Ende geht, bekennt sich Google klar zu lastmod:

"...nowadays lastmod is indeed useful in many cases and we're using it as a signal for scheduling crawls to URLs that we previously discovered."

Die Angaben m├╝ssen im richtigen Datenformat vorliegen, ist klar. Und den Tatsachen entsprechen.

"Second, it needs to consistently match reality: if your page changed 7 years ago, but you're telling us in the lastmod element that it changed yesterday, eventually we're not going to believe you anymore when it comes to the last modified date of your pages."

Zudem handelt es sich bei lastmod um eine optionale Angabe. Also wenn Du Dir bei manchen URLs nicht ganz sicher bist, lass es lieber weg. Denn unwahrheitsgem├Ą├če Angaben an dieser Stelle kommen bei Google nicht so gut an und k├Ânnen im Ernstfall sogar dazu f├╝hren, dass Google dem lastmod domainweit keine Bedeutung mehr schenkt.

"And when we say "last modification", we actually mean "last significant modification".

If your CMS changed an insignificant piece of text in the sidebar or footer, you don't have to update the lastmod value for that page.

However if you changed the primary text, added or changed structured data, or updated some links, do update the lastmod value."

Also:

  • Lieber kein lastmod als ein falsches.

  • Nur bei essentiellen ├änderungen im Main Content.

An der Stelle noch als kleiner Reminder: Die Angaben von changefreq und priority in der Sitemap sind Google nach wie vor komplett Wurst.

"Google still doesn't use the changefreq or priority elements at all."

Wenn Du Dich hier selbst nochmal tiefer reingraben m├Âchtest, gibt es hier die Sitemap-Doku von Google oder dort einen seeehr ausf├╝hrlichen Wissensartikel von Johan.

Johan von H├╝lsen
Johan von H├╝lsen
Gesch├Ąftsf├╝hrender Gesellschafter
A SEO will Neeva walk alone

Auf der Campixx traf ich Stefan Fischerl├Ąnder (kurz vor meinem Strategie-Vortrag). Stefan meinte, dass er sich sehr ├╝ber meine Anmerkungen zu Neeva gefreut hat. Und dass er mir eigentlich schreiben wollte (um mir Recht zu geben ;) ). Das haben wir jetzt nachgeholt und ich habe mich sehr ├╝ber die weiterf├╝hrenden Gedanken eines Kollegen gefreut, der im Bauen von Suchmaschinen wesentlich mehr Erfahrung hat als ich:

Ich schrieb:

"User sind nicht auf der Suche nach einer Alternative zu Google. Man muss den Menschen beibringen, dass sie eigentlich eine bessere Suche haben k├Ânnten. Das ist richtig aufw├Ąndig."

Stefan erg├Ąnzt:

Das war nat├╝rlich auch damals unsere zentrale Fragestellung. Die Opportunit├Ątskosten f├╝r User sind nahe null. Er muss keine Daten mitnehmen, braucht keine neue Software. Er muss nur einmal eine Einstellung im Browser ├Ąndern. Trotzdem gibt's IMHO eine riesige H├╝rde: FOMOFNUG = "Fear of missing out for not using Google" ÔÇôn├Ąmlich die Angst, wenn ich woanders suche, dass ich dann das Top-Ergebnis bei Google nicht sehe, das aber alle anderen sehen. Das ist f├╝r mich das zentrale Hindernis f├╝r alle Nicht-Google-Web-Recherche-Anbieter. Das k├Ânnte sich nun vielleicht mit den LLM-getriebenen Suchen ├Ąndern, denn da steht ja nicht mehr das einzelne Webergebnis im Vordergrund.

Aus der Meldung von Neeva:

"convincing users to pay for a better experience was actually a less difficult problem compared to getting them to try a new search engine in the first place"

Stefan erg├Ąnzt:

Wir hatten damals auch ein Bezahlmodell f├╝r Neomo diskutiert. Und ich war mir damals sicher, fr├╝her oder sp├Ąter wird jemand kommen, der das macht. Es war klar, dass das nichts f├╝r die breite Masse w├Ąre. Aber ein v├Âllig werbefreies Suchumfeld, bei dem du als Profinutzer viel mehr Parameter selbst steuern k├Ânntest, sollte doch ein Bezahlmodell erm├Âglichen. Bei Neeva habe ich aber keine solcher Profifeatures gesehen. (Was nat├╝rlich mit dem folgenden Punkt zu tun haben d├╝rfte ...)

Ich schrieb:

"Neeva hat keinen eigenen Index gehabt, sondern die Ergebnisse von Bing lizenziert. Im Februar kam raus, dass die Lizenzierung der Ergebnisse von Bing massiv teurer wird."

Stefan erg├Ąnzt:

Ich finde das interessant, weil in den letzten 10 bis 15 Jahren die Lizenzierung der Suchergebnisse in meiner Wahrnehmung recht g├╝nstig war. Wir hatten bei Neomo diskutiert, ob wir nicht als Indexlieferant Geld verdienen k├Ânnten. Das aber verworfen, weil schon absehbar war, dass Indexdaten zu g├╝nstig werden w├╝rden. Klingt jetzt aber so, als w├╝rde sich das drehen.

Ich erg├Ąnze dazu noch mal einen Slide von Andor Palau aus seiner Pr├Ąsentation zu Logfile-Analyse und warum es wichtig ist Crawling-Effizienz herzustellen, der Index ist gar nicht so teuer, aber das Crawling, um ihn aktuell zu halten:

Titel des Slides ist "Google gibt eine Menge Geld (Milliarden) f├╝r seine Infrastruktur aus". Darunter sehen wir einen Schreenshot von CNBC mit einem Artikel, der die gleiche ├ťberschrift hat und unten als Quelle verlinkt wird. Neben dem Screenshot ist ein Diagramm mit 2 Graphen, welches das "Continuous PUE Improvement" abbildet. Beide Graphen sind von 2008 bis 20012 deutlich gesunken, waren dann bis 2018 auf gleichbleibendem Niveau und sind 2019 und 2020 nochmal gesunken. Text unterhalb der Bilder: Die Verschwendung von Ressourcen durch das Crawling von Websites kostet Google jedes Jahr eine betr├Ąchtliche Summe Geld. Energieeffizient ist f├╝r ihre Zentren sehr wichtig. Google investiert viel Geld in die optimale Nutzung von Ressourcen. Als weitere Quelle neben URL ist URL angegeben.

Ich schrieb:

"(...) dass Du den Kern Deines Produktes selbst in der Hand haben und nicht von Dritten einkaufen solltest"

Stefan erg├Ąnzt:

Neben der Abh├Ąngigkeit von Dritten kommt noch ein weiterer Aspekt dazu: Ohne eigenen Index sind viele Dinge nicht m├Âglich! Du hast keinen Zugriff auf die Rohtexte. Du hast keinen Zugriff auf den Linkgraph. Du hast keine Kontrolle ├╝ber die Filterlisten. Und vor allem: Du kannst nichts ausprobieren. Kein Wunder, dass man so keinen ordentlichen USP aufbauen kann.

Ich finde das wertvolle und spannende Erg├Ąnzungen. Du auch?

Nora Tiedemann
Nora Tiedemann
Junior Consultant
Was kannst Du aus Hackerangriffen lernen? ­čĺú

Ich habe k├╝rzlich auf LinkedIn ├╝ber den Sichtbarkeitsverlust von ATU berichtet, die Mitte Mai von einer Cyberattacke betroffen waren (Danke f├╝r die Info, Stefan).

ATU hat sich zwar nicht ge├Ąu├čert, aber der SEO der Neuen Pressegesellschaft, welche ebenfalls von dem Hackerangriff betroffen war. Dominik K├╝hner meldete sich mit folgenden Worten:

"Wir waren auch betroffen, wie der verlinkte ZDF-Artikel von Stefan Vorwerk erl├Ąutert. Allerdings ging unsere Strategie im Gegensatz voll auf ­čśë"

Sistrix-Sichtbarkeitsindex von swp.de mit kleinem Einbruch der Sichtbarkeit Mitte Mai

Moment? Wie haben die das denn geschafft? Um genau diese Frage zu beantworten, habe ich Dominik f├╝r Dich um ein kleines Interview gebeten:

Euch hat die gleiche Cyberattacke getroffen wie ATU. Was waren als SEO-Team Eure ersten Gedanken, als Ihr von dem Hackerangriff erfahren habt?

Dominik: "Als uns klar wurde, dass unser Hoster auf unbestimmte Zeit nicht erreichbar sein wird, sind wir sehr schnell in den Krisenmodus gewechselt. In einer gro├čen Runde mit allen Fachabteilungen und der Gesch├Ąftsleitung haben wir klar kommuniziert, was f├╝r SEO wichtig wird und dass jetzt ein Wettlauf gegen die Zeit beginnt, um nicht aus dem Index zu fliegen und den Schaden zu begrenzen."

Wie habt Ihr herausgefunden, dass Ihr von einem Hackerangriff betroffen seid?

Dominik: "Zun├Ąchst einmal gar nicht, da wir von einer einfachen technischen St├Ârung bei unserem Hoster ausgegangen sind. Diese hatten wir bereits in der Vergangenheit und bisher konnten sie auch in kurzer Zeit behoben werden. Das Problem war, dass der Dienst um 3 Uhr nachts an einem Feiertag und vor einem Br├╝ckentag, ausfiel. Dazu kam dann noch, dass kaum Kommunikation seitens des Dienstleisters stattfand und wir letztlich selbst darauf kommen mussten, was die Ursache f├╝r den Ausfall war. Unsere IT-Abteilung war sich sehr schnell sicher, dass es sich um einen Angriff und damit eine Downtime von unbestimmter Zeit handeln muss."

Im Gegensatz zu ATU ist Eure Sichtbarkeit nicht in den Keller gerauscht ÔÇô Welche Strategie hattet Ihr?

Dominik:

"Die gr├Â├čte Herausforderung f├╝r alle Beteiligten war der Empfehlung des SEO-Teams zu folgen und ÔÇ×nichts zu tun" ÔÇô wie so oft ­čśë

Nichts tun meint in unserem Fall, f├╝r alle Seiten einen 503 Statuscode auszuspielen, m├Âglichst schnell die robots.txt wieder live zu bekommen und keine alternative Startseite oder einen 302-Redirect unserer Startseite auf eine externe Plattform einzurichten.

Hilfreich war auch, dass wir sehr schnell gute Prognosen erstellen konnten, wie lange es dauern w├╝rde, bis wir wieder erreichbar sind. Beim Datum des ÔÇ×Retry-After"-Headers haben wir uns nur um eine Stunde versch├Ątzt. Unsere generelle Strategie war, m├Âglichst viel Zeit zu gewinnen und jede verf├╝gbare Ressource in einen sofortigen Hoster-Wechsel unserer drei Nachrichtenportale zu stecken.

Es war schnell absehbar, dass wir in wenigen Tagen wieder live sein k├Ânnten. Wir haben gemeinsam mit allen Gesch├Ąftsbereichen die Risiken abgewogen, einen Plan entwickelt und diesen ohne Kompromisse und Zeitverluste umgesetzt. Das hat beispielsweise zu einer filmreifen ├ťbergabe einer Festplatte auf einem Parkplatz zwischen Ulm und Frankfurt gef├╝hrt, weil wir errechnet hatten, dass das Kopieren und die Fahrzeit schneller sein w├╝rden, als der parallel laufende Datentransfer ├╝ber unsere Leitung.

Und es hat funktioniert: Nach 58 Stunden waren wir wieder erreichbar und ein bis zwei Tage sp├Ąter hatten wir das neue Setup so stabilisiert, dass beispielsweise unsere Indexierungsgeschwindigkeit von neuen Artikeln, die Crawling-Frequenz der Sitemaps oder die Zeit bis Artikel-Updates in die SERPs durchschlagen, sich wieder auf dem Stand von vor der Attacke einpendelten."

Habt Ihr einen Notfall-Plan f├╝r zuk├╝nftige Cyberattacken? Wie sieht der aus?

Dominik: "Wir entwickeln gerade das Setup f├╝r eine kontrollierte Downtime, um bei Bedarf sehr schnell darauf umstellen zu k├Ânnen. Also eine parallele Instanz mit robots.txt und der richtigen Konfiguration f├╝r die entsprechenden http-Header. Au├čerdem arbeiten wir an einer statischen Version der wichtigsten Seiten, die wir bei Bedarf zur Verf├╝gung stellen k├Ânnen.

Der Empfehlung von John M├╝ller konnten wir leider in der K├╝rze der Zeit nicht folgen beziehungsweise haben die Ressourcen f├╝r eine schnellere Migration verwendet. Meiner Einsch├Ątzung nach ist genauso wichtig, vorab zu pr├╝fen, ob das Unternehmen im Ernstfall schnell entscheidungsf├Ąhig ist. Ich bin mir sicher, dass wir nur fast unbeschadet davongekommen sind, weil wir unmittelbar Interessen und Risiken abw├Ągen konnten und zu jedem Zeitpunkt klar war, wer Entscheidungen f├╝r die Umsetzung trifft. Dadurch haben wir kaum Zeit verloren. Die Strategie der rp-online.de war sehr ├Ąhnlich und auf den ersten Blick sieht es so aus, als h├Ątten sie trotz ihrer langen Downtime auch sehr wenig Sichtbarkeit verloren."

Was r├Ątst Du anderen: Wie k├Ânnen sie sich vor Cyberattacken sch├╝tzen? Und wie sollten sie reagieren, wenn sie von einem Hackerangriff betroffen sind?

Dominik: "Der vielleicht gr├Â├čte Schutz ist, sich bewusst zu werden, dass die Frage nicht lautet, ob man Opfer einer Cyberattacke wird, sondern wann und in welchem Umfang. Auf der letzten Weihnachtsfeier hat uns unser Gesch├Ąftsf├╝hrer genau diesen Satz gesagt ÔÇô und leider Recht behalten.

Ausgehend von dieser Haltung kann man Risiken einsch├Ątzen und bewerten und damit einhergehend auch, wie viel Aufwand man in die Entwicklung eines Notfall-Systems stecken m├Âchte. Parallel arbeiten wir daran, das Risiko zu minimieren und investieren viel in das Training und die Sensibilisierung aller Kolleginnen und Kollegen. Aus meiner Sicht ist das f├╝r digitale Unternehmen genauso wichtig, wie fr├╝her die Brandschutz├╝bung im B├╝ro."

Ich finde Dominiks Input auf jeden Fall mega spannend und denke, wir sollten alle einen Notfallplan f├╝r den Fall der F├Ąlle parat haben. Ein paar hilfreiche Tipps findest Du in unserem Wissensartikel "Website-Monitoring f├╝r SEO". Hast Du eigentlich einen Notfallplan? ­čĹÇ

Jolle Lahr-Eigen
Jolle Lahr-Eigen
Consultant
Rewinding the Redirect: Messfehler im Raum-Zeit-Kontinuum

Letztes Jahr hat Google-Sprecher Gary Illyes auf Twitter etwas ├╝ber die Verarbeitung von 301-Redirects klargestellt, dessen tiefere Bedeutung in der SEO-Bubble nur verhalten diskutiert wurde. Inzwischen hat Patrick Stox das Thema in seinem Artikel "Is It OK to Remove 301 Redirects After a Year? We Tested It" nochmal aufgegriffen und ├╝ber die Konsequenzen m├╝ssen wir nochmal reden.

301-Redirects sollten mindestens ein Jahr Bestand haben

Die urspr├╝ngliche Aussage, dass wir 301-Redirects mindestens ein Jahr lang aktiv halten sollten, um sicher zu gehen, dass Google s├Ąmtliche Signale verarbeitet und von der url-1.html auf url-2.html ├╝bertragen hat, d├╝rften die meisten unter "Ja, OK, alles klar, mach ich, Dankeee" abgeheftet haben. Gary gibt dazu den n├╝tzlichen Hinweis, dass es f├╝r User nat├╝rlich komfortabel ist, wenn die Links noch l├Ąnger als ein Jahr funktionieren.

Google kann bis zu einem Jahr brauchen, um Signale wie Backlinks via 301-Redirect (permanent) von einer URL auf eine zweite zu ├╝bertragen. So lange sollte die Weiterleitung mindestens Bestand haben.

Auf welche URL zahlen Backlinks ein, wenn der Redirect nach 12+ Monaten entfernt wird?

Doch angenommen eine alte Domain oder auch nur ein alter Artikel (url-1.html) wird wieder reaktiviert. Es zeigen weiterhin alte Backlinks dorthin. Weil aber neue Menschen auf den Inhalt gesto├čen sind oder der Inhalt ver├Ąndert wurde und ein neues Publikum anzieht, gibt es nun neue Backlinks auf url-1.html. Wie verarbeitet Google die Signale?

Die intuitive Annahme in der SEO-Branche war: Google wird ein bisschen brauchen, um die Ver├Ąnderungen wahrzunehmen (Discovery, Crawling) und nochmal l├Ąnger, um sie zu verarbeiten (Indexing, Verzeihung, "Indexation" laut John Mu bei 1:20). Vielleicht dauert auch dieser Prozess grob bis zu einem Jahr, aber dann sollten doch alle Links auf url-1.html f├╝r url-1.html z├Ąhlen, egal, wann sie gesetzt wurden.

Doch genau so ist es nicht.

Google splittet die Zeit in vor und nach dem 12+ Monate aktiven Redirect

Die alten Backlinks z├Ąhlen, wenn die 301-Redirect-Verarbeitung nach einem Jahr von Google abgeschlossen ist, auf url-2.html ein. Das gilt auch dann, wenn url-1.html wieder aktiv ist. Die alten Backlinks bekommt die alte Seite nicht zur├╝ck. Sie startet bei Null und muss sich ein neues Backlinkprofil aufbauen.

Alte Backlinks vor Signal├╝bertragung URL1 zu URL2 per 301 zahlen auf URL1 ein
Nach einem Jahr zahlen diese Backlinks auf URL2 ein
Reaktivierung der URL1
Reaktivierung URL1: Alte Signale bleiben bei URL2, URL1 f├Ąngt bei 0 an
Neue Backlinks zahlen jeweils auf die URL ein, auf die sie zeigen (entweder URL1 oder URL2)

Darth Autocrat hat explizit nachgefragt und die Best├Ątigung von Gary bekommen.

Widerspr├╝che in einzelnen Experimenten

Und auch das von Patrick oben verlinkte Experiment best├Ątigt dieses Vorgehen von Google. Als er f├╝r eine Reihe von mit Backlinks best├╝ckten Artikeln die Redirects aufgehoben hat, sprang Ahrefs zwar beim Z├Ąhlen der Backlinks auf diese Ver├Ąnderung an, an den Rankings der nun ohne Weiterleitung da stehenden Zielseiten (also die "url-2.html"s nach unserem Muster) hat dies keinen Abbruch getan.

Sean Markey hat einen weiteren Datenpunkt f├╝r uns dazu, den er in seinem Newsletter beschreibt:

"I acquired an EMD (exact match domain) with a killer links profile, and put a site on it + one 4,000 word AI-generated not-at-all human-edited piece of content and nothing else.

(I couldn't even get an eye-busting rocket ship graph because the site started ranking in the top 10 when I took over this domain and installed WP AND NOTHING ELSE). It's been at the #2 spot for over a month now."

Er deutet es so: Wenn die alten Backlinks tats├Ąchlich f├╝r immer auf die Zielseiten der 301-Weiterleitungen einzahlen w├╝rden, h├Ątte er nicht in so kurzer Zeit so gute Ergebnisse mit der reaktivierten Domain haben k├Ânnen.

Der Logik stimme ich zu. Wenn Google die alten Backlinks wirklich langfristig den "url-2.html"s zuordnet, d├╝rfte keine weitere Neubewertung notwendig sein, nicht mal ein kurzfristiges Aufflackern der wiedererweckten Domain.

Es lohnt sich wirklich, das nochmal selbst durchtesten. Aber es ist nicht leicht, ein relevantes URL-Set inklusive Backlinks und jahrelangen Redirects auf den Weg zu bringen. Solltest Du eins haben, starte unbedingt und halte uns auf dem Laufenden!

Was bedeutet das f├╝r SEO?

Wie gehen wir damit um, wenn Garys Darstellung korrekt ist? Wer Domains handelt wie olle Import-/Export-Sepp, darf ├╝berlegen, ob er f├╝r ein gutes Backlinkprofil bezahlt, wenn die Domain schon mehr als ein Jahr weitergeleitet wird. Auch wenn wir f├╝r Kundenprojekte nach tauglichen Expired Domains Ausschau halten, m├╝ssen wir nicht nur darauf achten, dass die nicht mal f├╝r Casino- und Pornoinhalte im Einsatz waren. Ein "super Backlinkprofil" sollte uns in der Kosten-Nutzen-Abw├Ągung nun weniger wert sein.

Wie man bei Patrick, der aus dem Hause Ahrefs kommt, schon beobachten kann, sollte auch ein Ruck durch die SEO-Tool-Industrie gehen. Wird vermutlich nicht passieren, denn schon jetzt gehen diese mit Metriken wie Domain Authority, Authority Score und Domain Rating zu Werke, w├Ąhrend wir SEOs dann permanent erkl├Ąren m├╝ssen, dass diese Werte nicht deckungsgleich mit dem sind, was Google misst und verwendet (siehe dazu Johannes Beus oder h├Âre Jens Fauldrath im Gespr├Ąch mit Lisa Stober).

Solange wir aber selbst nicht permanent das Web crawlen, gibt es f├╝r uns keinen Weg, um skalierbar den ├ťberblick zu behalten, wann welche Redirects scharfgeschaltet waren. Hier k├Ânnten die oben genannten Tools nachziehen und diese Historie tracken, um sie dann gegen Geld auswertbar zu machen.

F├╝r uns intern ist besonders die Analyse der internen Verlinkung und PageRank-Berechnung betroffen, wenn wir nun die zeitliche Dimension ber├╝cksichtigen m├╝ssen, allerdings ist intern leichter Wind zu bekommen von der Weiterleitungshistorie.

Man k├Ânnte sagen, die Blackbox ist schw├Ąrzer geworden, aber das ist Quatsch. Denn wir wissen jetzt besser Bescheid, was passiert, als wir zuvor meinten zu wissen. Es zeigt sich nur wieder: Beim Einsatz von externen Tools, die vermeintlich nachempfinden, was Google macht, liegen wir notwendigerweise h├Ąufig daneben. Das macht die Tools und Heuristiken nicht wertlos. Daumenregeln, die uns in 80 Prozent der F├Ąlle (oder 60 oder 90) ein gutes Ebenbild der Realit├Ąt geben, geben uns weiterhin gute Handlungsempfehlungen.

Anita B├Âhm
Anita B├Âhm
Consultant
Google kickt Kanada

...oder zumindest kanadische News Publisher aus dem Index.

Äh, bitte, was ist los?!

Das ist los: In Kanada ist ein neues Gesetz namens Bill C-18 (oder auch "Online News Act") beschlossen worden. Dieses sieht vor, dass Unternehmen k├╝nftig daf├╝r bezahlen m├╝ssen, um auf die Websites von News Publishern zu verlinken. Auch Google ist davon betroffen. Und das gleich dreifach: Durch die organische Suche sowie Google News und Google Discover. Wenig ├╝berraschend hat Google auf solche Faxen nicht wirklich Bock und sagt klipp und klar, dass es als Konsequenz alle kanadischen News Websites rauswerfen wird, sobald das Gesetz so in Kraft tritt.

"I'm not quite sure this was the intended outcome of this law."

mutma├čt Lily Ray bei LinkdIn und ich kann ihr da nur zustimmen.

Der Kanadier Hugh Burnham versucht in den Kommentaren unter Lilys Post, diesen f├╝r uns eher fragw├╝rdig wirkenden Schritt zu erl├Ąutern:

"Rather than building robust ad servers on their own publishing sites that generate revenue, they are trying to force sites that link to Canadian news agencies to make the money for them."

Monetarisierung im News Bereich ist ja auch bei uns so ein Thema. Ads und Abos sind die Mittel der Wahl, haben aber durchaus ihre Schwierigkeiten. Aber ob eine "link tax", wie Kanada das nun plant, da die beste Alternative ist... fragw├╝rdig.

Dabei sollten wir nicht untersch├Ątzen, wie wichtig es gesellschaftspolitisch ist, dass Menschen (auch) ├╝ber Suchmaschinen einen Zugang zu vertrauensw├╝rdigen Nachrichten erhalten.

"The removal of links to Canadian news sites will undoubtedly impact the reach and visibility of these publications.

It might also interfere with people's ability to access reliable and diverse sources of news."

ÔÇô Kommentar von SurgeZ bei LinkedIn

Aus der Stellungnahme von Google zu Bill C-18 ist der Frust deutlich herauszulesen:

"The unprecedented decision to put a price on links (a so-called "link tax") creates uncertainty for our products and exposes us to uncapped financial liability simply for facilitating Canadians' access to news from Canadian publishers.

We have been saying for over a year that this is the wrong approach to supporting journalism in Canada and may result in significant changes to our products.

We have now informed the Government that when the law takes effect, we unfortunately will have to remove links to Canadian news from our Search, News and Discover products in Canada (...).

We're disappointed it has come to this."

Die Entt├Ąuschung ist wohl auch deshalb so gro├č, weil Google von Anfang an seit der Vorstellung von Bill C-18 Erfahrungen, Feedback und L├Âsungsvorschl├Ąge mit eingebracht hat (Details dazu sind in der Stellungnahme verlinkt) und sich als Unterst├╝tzer des kanadischen Journalismus pr├Ąsentiert:

"Last year alone, we linked to Canadian news publications more than 3.6 billion times ÔÇô at no charge ÔÇô helping publishers make money through ads and new subscriptions."

Und jetzt?

Trotzdem ist Google entschlossen, weiter am Ball zu bleiben und hofft, dass die Regierung nochmal einlenkt, um einen besseren Weg zu finden.

Denn:

"Otherwise, we remain concerned that Bill C-18 will make it harder for Canadians to find news online, make it harder for journalists to reach their audiences, and reduce valuable free web traffic to Canadian publishers."

Auf dem Google News in Kanada Blog stellt Google ├╝brigens auch eine umfassende FAQ bereit. Dort werden unter anderem folgende Fragen gekl├Ąrt:

  • Wie genau wirkt sich das neue Gesetz auf die Suche und andere Produkte aus?

  • Wann treten die ├änderungen in Kraft?

  • Wie k├Ânnen die Menschen in Kanada auch weiterhin zeitnahen Zugang zu lokalen News und Inhalten kanadischer Publisher erhalten?

  • Wie wird ermittelt, welche Websites betroffen sind?

Es ist nicht unwahrscheinlich, dass andere Suchmaschinen und Plattformen gleichziehen und dann halt lieber gar nicht mehr auf kanadische News Publisher verlinken. Zumindest Meta hat sich diesbez├╝glich wohl schon entsprechend ge├Ąu├čert.

├ähnlich wie beim Leistungsschutzrecht spielt Google hier mit harten Bandagen. Gro├če Publisher k├Ânnen davon vielleicht sogar profitieren: Eine News-Marke, die den kanadischen Nutzern auch ohne Google schon bekannt ist, ist f├╝r diese die n├Ąchste Anlaufstelle, nachdem sie bei Google keine News mehr finden.

Kleinere Publisher k├Ânnen das schlechter kompensieren. Netto ist das f├╝r die gro├čen Publisher nat├╝rlich immer noch weniger Traffic, aber sie k├Ânnten diesen Streit (den sie nicht mal selbst vom Zaun gebrochen haben) mit Google wahrscheinlich l├Ąnger durchhalten als kleine Konkurrenten.

Vorherige AusgabeN├Ąchste Ausgabe
 
Fragen? Immer gerne fragen!
Wir sind f├╝r Dich da.
Schreib uns gern jederzeit
eine E-Mail an kontakt@wngmn.de oder
ruf uns einfach kurz an: +49 40 22868040

Bis bald,
Deine Wingmen
Anckelmannsplatz 1, 20537 Hamburg, Germany
Wingmen Online Marketing GmbH Logo