Wirklich wahres Wingmen SEO Wissen f├╝r wache Webmarketer #193
Wingmen Online Marketing GmbH Logo
Nils Warnick
Nils Warnick
Consultant
­čÄ│ SEO NL CXCIII: Amerikaner k├Ânnen super bowlen

In der Nacht zu gestern auch wieder wegen SB LVIII vor dem Fernseher oder Stream ausgeharrt? Wieso wir ausgerechnet f├╝r eine American Football Veranstaltung r├Âmische Ziffern verwenden, verstehe ich auch nicht ganz. Zumal SB58 als Abk├╝rzung f├╝r Superbowl noch k├╝rzer w├Ąre. Es wird ja auch nicht besser, wenn man in h├Âhere Zahlenbereiche kommt, wie man an unserem Titel sieht.

Hat aber schon etwas Repr├Ąsentatives. Vielleicht macht man es deswegen. Der Verst├Ąndlichkeit halber kann es jedenfalls nicht sein. Zumindest spricht der p├╝nktliche Anstieg der Suche nach r├Âmischen Zahlen Mitte Februar jedes Jahr daf├╝r, dass die Super Bowl Fans in den Staaten mit dem arabischen Zahlenformat besser zurecht k├Ąmen.

Google Trends Graph, der das relative Suchinteresse am Begriff "roman numerals" im Verlauf der letzten 5 Jahre zeigt. W├Ąhrend der Graph ├╝ber weite Teile relativ gleich bleibt, gibt es jedes Jahr mitte Februar starke Ausschl├Ąge nach oben.

In der Hoffnung, dass die kleinen Zahlen keine Umst├Ąnde bereiten, haben wir euch wieder ein paar Artikel geschrieben, V an der Zahl:

  • Behrend steht im Kolosseum der Indexierungsinterpretation Johan gegen├╝ber

  • Johan findet einen neuen Weg zwischen Epikur und Stoa ÔÇô die Eologie┬á

  • Ich m├Âchte ein wenig ├╝ber die moderne Cloaca Maxima sprechen ÔÇô Enshittification

  • au├čerdem freut Johan sich ├╝ber Zuspruch im Senat von Kevin

  • Philipp setzt seinen Epos "Google under Pressure" fort

Und wie oft am Tag denkst Du so ans alte Rom? ;)

Wir w├╝nschen Dir viel Spa├č beim Lesen!

Was wir gelesen haben
Behrend von H├╝lsen
Behrend von H├╝lsen
Consultant
Was hei├čt hier indexiert?

Beim Konferenz-Smalltalk, wenn ein abstrakter SEO-Sachverhalt hei├č diskutiert wird, hei├čt es am Ende oft:

Frag 2 SEOs, bekomm 3 Meinungen.

Meistens erkl├Ąrt die unterschiedliche Gewichtung einzelner Aspekte, wie es zu verschiedenen Meinungen kommen kann, ein klarer Fall von "it depends".

Aber auch wenn Du konkrete Fragen stellst, bei denen die Antwort vermeintlich ein eindeutiges "Ja" oder "Nein" ist, k├Ânnen ge├╝bte SEO-Experten problemlos mehrere Meinungen pro Faktenlage generieren.

Hier praktische und hoffentlich lehrreiche Beispiele:

Du fragst 2 SEO-Experten Deinen Vertrauens (nennen wir sie mal Johan und Behrend, Disclaimer: ├ähnlichkeiten mit real existierenden Wingmenschen sind rein zuf├Ąllig):

Wie viele URLs habe ich im Index?

Die Frage klingt erstmal so, als g├Ąbe es daf├╝r eine korrekte Antwort, oder?

  1. Beispiel-Behrend antwortet: Du hast 6 indexiert

  2. Beispiel-Johan antwortet: ne das sind 9 im index

Das sieht dann ungef├Ąhr so aus wie dieses Meme (kennt jemand die Originalquelle dazu?):

Eine abfotographierte Strichzeichnung ├╝ber die in die nachtr├Ąglich mit Roter Schrift "How Many URLs are indexed?" als ├ťberschrift eingef├╝gt wurde. Die Strichzeichnung zeigt 2 Personen die von 2 Seiten auf eine vor ihnen auf den Boden gemalte Ziffer zeigen. Die linke Person sagt "six" die rechte "nine" was zu dem jeweiligen Blickwinkel der Person auf die Ziffer am Boden passt.
Darunter steht:
"Just because you are right, does not mean, I am Wrong. You jsut haven't seen the live from my side."

Wer hat jetzt recht? Beide nat├╝rlich. Beispiel-Johan und Beispiel-Behrend legen hier den Indexierungsbegriff unterschiedlich aus.

(Das wissen sie auch beide, aber beide widersprechen gerne, insbesondere f├╝r fiktive Newsletterbeispieldiskussionen).

W├╝rdest Du jetzt noch ein wenig nachbohren oder gar einen Dritten Fragen, bek├Ąmst Du sicherlich auch noch ne Dritte und vierte Zahl genannt, die, technisch gesehen, auch korrekt sind.

Unterschiedliche Indexierungsdefinitionen? 

Behrend, als alter GSC Fan, folgt f├╝r dieses Beispiel dem Indexierungsbegriff, den die GSC angibt.

Nach dieser Definition ist nur die kanonische URL indexiert:

Weiterleitungen, HREFLANG-, oder AMP/Mobile-Versionen oder Ähnliches sind nicht indexiert.

Wenn Du so eine Beispiel-URL in der URL Inspection testest, sagt Google, sie ist nicht indexiert, sondern eine andere URL ist das Canonical.

Johan nutzt f├╝r seine Antwort als Indexierungsdefinition, ob Google diese in der SERP ausspielen k├Ânnte. Denn auch wenn die URL laut GSC nicht die kanonische URL ist, k├Ânnte sie ausgespielt werden.

Was ist denn nun wirklich indexiert?

Google hat keine Lust auf Duplicate Content.

Damit der Index m├Âglichst wenig unn├Âtig doppelte Inhalte enth├Ąlt, indexiert Google genau genommen keine einzelnen URLs, sondern Dokumente.

Und diese Dokumente k├Ânnen dann jeweils eine unendliche Anzahl an URLs haben, auf denen sie zu finden sind. Canonicalization hei├čt das Zauberwort. Daher werden URLs zu einem Dokument auch h├Ąufig als "Canonical Gruppe" bezeichnet, Google spricht meist von "Duplicate URLs" und "Alternate URLs".

Es sind ├╝brigens ca 400 Milliarden Dokumente in Googles Index. Und die meisten davon werden mehrere URLs haben. Die URLs zu einem Dokument k├Ânnen beispielsweise Weiterleitungs-URLs sein, Sortier- oder Trackingvarianten.

Die URLs eines Dokuments m├╝ssen dazu auch nicht unbedingt alle auf einer Domain liegen oder auch nur eine ├Ąhnliche URL sein (Stichwort Syndizierung von News-Artikeln).

Der Inhalt der URLs kann auch optisch recht unterschiedlich sein, solange sie den gleichen Inhalt haben, kann Google entscheiden URLs als das gleiche Dokument zu sehen. Soweit wir wissen, wird daf├╝r der Simhash eingesetzt.

Aus den URLs zu jedem Dokument w├Ąhlt Google eine URL als "Canonical" aus, die dann auch in der GSC als indexiert auftaucht. Das ist h├Ąufig, aber nicht immer die, die im rel="canonical" angegeben ist. Google spricht von einem Machine Learning aus 20 (gewichteten) Faktoren, die Canonical-URL bestimmen.

Die anderen URLs zu einem Dokument, die Google kennt, werden nicht vergessen. Alle gemeinsam sind relevant f├╝r die Indexierung des Dokuments. Sonst k├Ânnte eine Weiterleitung beispielsweise auch keine Linkpower vererben. Daher stehen sie ebenfalls als Alias im Index und tauchen in verschiedenen Pages-Berichten der GSC auf (Page with redirect, Alternate page with proper canonical tag, Duplicate without user-selected canonical und der "All time Favorite" Duplicate, Google chose different canonical than user). Wenn eine Canonical-Gruppe ├╝ber Domain- und Property Grenzen hinweg besteht, hat die GSC ├╝brigens einige Unw├Ągbarkeiten und die in der GSC kommunizierte Indexierung ist nicht immer eindeutig.

Sicher gehen, dass Dir bei abweichender Domain das abweichende Canonical angezeigt wird, kannst Du eigentlich nur bei Domains, die f├╝r denselben User in der GSC freigeschaltet sind.

Gelegentlich wird Dir aber auch das abweichende Canonical f├╝r fremde Domains angezeigt. Insbesondere bei PDF-Dateien sieht man das vergleichsweise oft.

Aber dazu k├Ânnte man einen eigenen Newsletterartikel schreiben.

Zumal die Informationen des Pages-Berichts immer ein paar Tage hinterher hinken, w├Ąhrend URL Inspection die Live-Information angibt.┬á

Lass Dich davon nicht verwirren.

Und nur weil die URL nicht das Canonical ist, hei├čt es nicht, dass sie nicht auch in der SERP auftaucht. Google zeigt sogar recht h├Ąufig andere URLs als das Canonical an.

Beispielsweise:

  • wenn ein Alias als mobile gef├╝hrt wird und die Suchanfrage von mobile kommt.

  • Oder HREFLANG.

  • Oder weil die Canonical URL nicht verf├╝gbar ist.

  • Oder weil gerade Wochenende ist.

  • Oder die Weiterleitung noch frisch ist und Google ihr noch nicht traut.┬á

  • Vielleicht auch, weil irgendwo, irgendwann ein kleiner Schmetterling mit dem Fl├╝gel schlug...

Machine Learning at it's best also.

Das Problem ist besonders bei HREFLANG, dass es halt so aussieht, als h├Ątte die URL keinen Traffic. Dabei wird der komplette Traffic nur auf die Canonical URL getracked.┬á

Die real dem User angezeigte URL kannst Du nicht in der GSC sehen.

Einige der ca. 20 Faktoren, die dem Machine Learning zur Verf├╝gung stehen und in die Canonical Auswahl gehen:

  • Canonical (Canonical Ziel wird bevorzugt)

  • Status Code (200er werden bevorzugt)

  • HTTP vs. HTTPS (https wird bevorzugt)

  • L├Ąnge der URL (kurze URL wird bevorzugt)

  • Eingehende Links (intern und extern) (mehr und besser wird bevorzugt)

  • Referenzierung in Sitemaps (mehr wird bevorzugt)

  • Datum des letzten Crawls (aktueller wird bevorzugt)

Und all das f├╝hrt dazu, dass unsere (nat├╝rlich nur in der Fiktion diskussions- und widerspruchsfreudigen) Beispiel-Wingmenschen stundenlang ├╝ber 6 und 9 als korrekte Zahl streiten k├Ânnen.

Johan von H├╝lsen
Johan von H├╝lsen
Gesch├Ąftsf├╝hrender Gesellschafter
Das sehe ich jetzt ganz eologisch

Ich bin kein Dogmatiker. Ich habe keine ├ťberzeugungen. Und von Meinungen halte ich mich fern.

Ich bin ein echtes Blatt im Wind. Daf├╝r bin ich bekannt.

Und so hat mich ein Wind letzte Woche nach W├╝rzburg verschlagen. Auf eine kleine Konferenz, den eoSearchSummit.

Dort habe ich nicht nur einige Vortr├Ąge geh├Ârt und mich lange mit anderen SEOs sehr gut unterhalten (hallo Benedikt, hallo Thorsten, hallo Ihr eo-Logen).

Sehr gut gefallen haben mir die Vortr├Ąge von:

  • Dr. Beatrice Eiring (eology GmbH): Human vs. KI ÔÇô Wer schreibt die besseren Texte? Chancen, Grenzen & Risiken der KI Content Creation

  • Prof. Dr. Mario Fischer (Herausgeber Website Boosting): Das Low Hanging Fruit Framework ÔÇô so bekommst du schnell und einfach mehr SEO-Traffic

  • Madeleine Schr├Âter (Deutsche Telekom): SEO Update Recht: Was ihr beachten m├╝sst, damit dem Top-Ranking in der SERPs kein juristischer ├ärger folgt

Den letzten Vortrag des Tages durfte ich halten.

Mein pers├Ânliches Highlight war dieses Slide, bei dessen Erstellung ich an Stefan denken musste.:

Screenshot einer Pr├Ąsentationsfole mit der ├ťberschrift ÔÇ×Wer die Regeln kennt, gewinnt das Spiel". Zu sehen sind 3 Screenshots. Einer mit einer Fussballregel. Und zwei Zeitungsartikel ├╝ber ein Spiel zwischen Werder Bremen und dem HSV, bei dem ein Freisto├čtor von Marvin Ducksch wegen Regelversto├č von Mitchell Weiser aberkannt wird.

Aber eigentlich bin ich anhand der Funktionsweise Googles einmal durchgegangen, welche Ma├čnahmen auf Google wirken und wie:

Screenshot eines Slides mit dem Titel ÔÇ×So funktioniert (durchgestrichen)Google(durchgestrichen) eine Suchmaschine"
Zu sehen ist ein Ablaufdiagramm mit diesen Punkten:
* Discover URLs: Findet Google alle relevanten URLs?
* Crawl URLs: Kann und will Google alle meine Inhalte crawlen?
* Index Documents: Werden meine Inhalte indexiert
* Parse User Query: Spreche ich die Sprache der User?
* Retrieve Documents from Index: Verwende ich die richtigen Begriffe? Erf├╝lle ich die AScorer Anforderungen?
* Re-rank and combine indexes: Habe ich das Beste Ergebnis f├╝r den User Intent?
* Serve Results to the user: Ist mein Snippet attraktiver als der Rest der SERP

Das Vorgehen hat ganz gut geklappt, auch wenn das mit konkreten Tipps nat├╝rlich ein anspruchsvolles Programm f├╝r 45 Minuten ist.

Nach dem Vortrag ist aber vor dem n├Ąchsten Vortrag. So langsam darf ich die Slides zu ÔÇ×Beyond Crawling: Warum Deine Seiten (nicht) indexiert werden" f├╝r die SMX vorbereiten.

Ich freue mich schon sehr auf die SMX. Wenn Du noch kein Ticket f├╝r die SMX hast: 15wngmnSMX ist der Rabattcode Deines Vertrauens.

Falls die Gliederung f├╝r Dich interessant aussah: So ganz grob wird das auch der Fahrplan f├╝r den Technical SEO Workshop (englisch) am Vortag der SMX (11.03.2024) sein. W├╝rde mich freuen Dich da zu sehen (auch wenn der Rabattcode daf├╝r nat├╝rlich nicht gilt. ;) )

Nils Warnick
Nils Warnick
Consultant
Die Entropie der Enshittification ­čĺę

"From en- ("caused") +ÔÇÄ shittification ("becoming shitty"). As a designation for a particular phenomenon affecting online platforms, coined by Canadian-British blogger, journalist, and science fiction author Cory Doctorow in 2022, but isolated use exists earlier (see quotations below)."

Aus dem Abschnitt zur Etymologie zur Seite des Begriffs Enshittification im englischen Wiktionary. Vor etwas mehr als einem Jahr hat Cory Doctorow diesem Begriff zu gro├čer Aufmerksamkeit verholfen. Er wurde sogar Wort des Jahres der American Dialect Society. Vermutlich in einer Riege zu nennen mit einer Verk├╝ndung durch Susanne Daubner in der Tagesschau.

Heute ist das Thema (per Google Trends) scheinbar interessanter denn je.

Ein Graph aus Google Trends, der das weltweite Interesse am Thema  "Enshittification" von 2021 bis heute zeigt. Bis September 2023 l├Ąuft es mit wenigen, kleinen Ausschl├Ągen auf der Nullinie. Dann steigt der Graph steil an, bildet ein bis Ende 2023 ein etwas schwankendes Plateau und steigt zum Ende Januar 2024 auf seinen H├Âhepunkt.

Als Alternativbegriff wird auch "Platform Decay" herangezogen. Laienhaft zusammengefasst beschreibt es den Vorgang, dass sich Plattformen, aber weiter gedacht auch andere Produkte, f├╝r ihre Nutzer zum schlechten wandeln, da die dahinterstehenden Unternehmen Entscheidungen nicht im Sinne der Nutzer, sondern nach gesch├Ąftlichen Interessen f├Ąllen. Beispiele sind seitdem zahlreich genannt worden, eines der bekanntesten d├╝rfte die Kritik an TikTok gewesen sein.

Das Muster ist dabei eigentlich immer gleich. Zuerst wird eine Plattform mit einem guten Service oder Produkt erfolgreich, h├Ąufig auch unter finanziellen Verlusten. Mit zunehmender Nutzerzahl gibt es dann eine Honeymoon-Phase f├╝r User und Werbetreibende, bis ein Lock-In-Effekt eintritt. Nat├╝rlich soll das Geldverdienen weitergehen und weitergehende Ma├čnahmen werden ergriffen. Durch diese Ma├čnahmen (bspw. zus├Ątzliche Werbung) beginnt die Abnahme der Qualit├Ąt und damit des urspr├╝nglichen Erfolgsfaktors. Liest man genug Artikel dazu, wirkt es fast schon wie ein Naturgesetz oder eine kosmische Konstante.

Den Zeitgeist hat Cory damit jedenfalls getroffen. Ich bin zwar kein TikTok-User, aber ob es die "Trending" Videos bei YouTube sind oder "For You"-Tweets auf X, meide ich die in der Regel wie die Pest. Weil sie eben scheinbar nicht f├╝r mich zu sein scheinen, sondern etwas, was mir der AlgorithmusÔäó unbedingt reindr├╝cken will. Dieses diffuse Gef├╝hl scheint es bei recht vielen Usern zu geben.

Ich m├Âchte wetten, auf irgendeiner SEO-Konferenz hast Du auch schonmal abends nostalgisch mit anderen ├╝ber das "Internet von fr├╝her" sinniert. Uns als SEOs betrifft das Ganze nochmal ein wenig anders als beim Rest der Plattformen. Denn in nicht wenigen "Geht's nur mir so oder ist Google irgendwie schlecht geworden?"-Diskussionen oder "Schreib 'Reddit' hinter deine Suchanfragen"-Tipps schwingen ja auch die T├Âne mit, dass diese SEOs das alles verbrochen haben. Noch bevor das Problem mit ChatGPT um den Faktor 100 vergr├Â├čert wurde. (Philipp f├╝hrt das Thema in seinem Artikel diese Woche noch weiter aus.)

Mittlerweile wurden sogar Studien dar├╝ber durchgef├╝hrt, ob an diesem Gef├╝hl der Verschlechterung etwas dran sein k├Ânnte. Seien wir Mal ehrlich: Wenn jeder vor dem Erstellen eines Inhalts eine TF/IDF-Analyse der Top 10 Ergebnisse macht und die Content Features der TOP 3 ├╝bernimmt, dann ist es auch wenig ├╝berraschend, dass sich die Ergebnisse a) irgendwie alle gleich und b) nicht authentisch anf├╝hlen. Klar, wenn's doch funktioniert.

Das Ph├Ąnomen, dass sich der Content am Algorithmus der Plattform ausrichtet, ist nicht exklusiv f├╝r Google. Vielleicht erinnerst Du dich auch noch daran, als auf YouTube jedes Video pl├Âtzlich l├Ąnger als 10 Minuten sein "musste". Der Unterschied ist aber, dass die Beziehung der Google-Suche zu den Websites eine andere ist. Beide Plattformen k├Ânnten zwar ohne ihre Creator nicht existieren, aber w├Ąhrend YouTube sein Geld direkt am Video (mit der Werbung) verdient, hat die Google Suche noch keinen Cent gesehen, wenn Du auf ein organisches Ergebnis klickst. Dass beide Services am Ende von Google sind, vernachl├Ąssigen wir hier einmal.

Deswegen muss die Google-Suche anderweitig monetarisiert werden und wir landen beim Ausgangspunkt: Enshittification. Wieso denn m├╝hsam einzigartigen Content aufbauen und gegebenenfalls riskieren, nach hunderten KI-generierten und kaputtoptimierten Brand-Inhalten hinten runterzufallen, wenn ich mir den Platz am oberen Ende der SERP auch einfach kaufen k├Ânnte? Hat Google ├╝berhaupt noch Interesse daran, den besten Content einfach nach oben zu sp├╝len? Ein Schelm, der nun B├Âses denkt. Weiter gesponnen kommen dabei zwei Gedankenrichtungen heraus:

  1. Die Entropie der Enshittification f├╝hrt schlussendlich zu einem Niedergang der Google-Suche und eine neue Suchmaschine beginnt den Zyklus von vorne. Werden die Karten irgendwann tats├Ąchlich komplett neu gemischt?

  2. Das Ruder wird herumgerissen und eine Entwicklung (vielleicht ja KI-gest├╝tzt) f├╝hrt zu einer Renaissance des inhaltlichen SEOs. Jeder kann dank GPTs einen Basistext zu jedem Thema verfassen. Doch was man dar├╝ber hinaus liefert, das einzigartige, gibt am Ende den Ausschlag. Oder wie Jono Alderson fragte: What happens when everybody's website is fixed?

Sicherlich liegt da noch ganz viel zwischen. Ironischerweise w├╝rde es sich in beiden Szenarien anbieten, nicht um der Tools und Metriken halber zu optimieren, sondern mit dem Nutzer und dessen Anliegen im Hinterkopf.

Johan von H├╝lsen
Johan von H├╝lsen
Gesch├Ąftsf├╝hrender Gesellschafter
KeWin liest unseren Newsletter

Also Wortspiele als Aufmacher sind ja immer bl├Âd. Genauso wie Verallgemeinerungen. Ich hab auch nicht nachgesehen, ob Kevin Indig wirklich unseren Newsletter liest. W├Ąre ja nicht unwahrscheinlich, dass er gro├če Vermissung Florian und mir gegen├╝ber hat, wo sein Traineeship jetzt ├╝ber 12 Jahre her ist.

Aber kaum hat Philipp seinen Beitrag ├╝ber Google under Pressure und Amazon geschrieben, liefert Kevin noch mal weitere Fakten zum Google-/Amazon-Dilemma.

Dabei wirft er einen Blick auf den Earnings-Call, auf den Du nach Philipps Artikel bestimmt ebenso neugierig warst, wie Philipp, Kevin und ich.

Kevin hat diese sch├Âne Grafik gebastelt, die gut zeigt, wie sich der Anteil von Google am Ad Revenue in den letzten 1,5 Jahren im Vergleich zu Meta und Amazon schm├Ąlert. Absolut gesehen steigen die Werbeeinnahmen nat├╝rlich, aber das Wachstum ist langsamer als bei den anderen.

Die Grafik zeigt, wie Googles Anteil am Werbeumsatz 2023 zur├╝ckgehht, w├Ąhrend Meta leicht und Amazon deutlich w├Ąchst. Einzig Youtube bleibt stabil

Kevin macht auch deutlich, dass das an den besonders lukrativen Ads liegt. Er best├Ątigt also unsere These, dass Google sich das nicht gefallen lassen kann (und wird). Und Google kann auch nicht gefallen, dass Amazon Partnerschaften mit Meta hat und Amazon Prime als Werbefl├Ąche anbietet (immerhin hat Google jetzt Pinterest an Bord). Ein Werbe-Euro kann ja nur auf einer Plattform ausgegeben werden.

Im weiteren Teil leitet er ├╝ber auf Rufus und die Vision von Shopping-Assistenten. Den Teil gehe ich noch nicht mit. Denn nur, weil es den Assistenten gibt, hei├čt das noch nicht, dass er von Usern anstatt der Suche genutzt werden wird und Werbung dar├╝ber funktioniert. Beides ist erstmal eine These.

Egal ob Shopping Assistant oder Suche. Am Ende geht es um User Experience und Nutzung. Nicht zum Selbstzweck, sondern um User zu haben, denen man Werbung ins Gesicht dr├╝cken anzeigen kann.

Und nat├╝rlich geht es um die bessere Experience f├╝r Werbetreibende. Convenience und Steuerbarkeit auf der einen Seite, Effizienz und das Gef├╝hl die richtige Entscheidung zu treffen auf der anderen.

Sehr wichtig finde ich aber den Hinweis, dass Google nicht auf den Ad-Umsatz von News Publishern verzichten kann.

 Philipp G├Âtza
Philipp G├Âtza
Junior Consultant
Google Under Pressure ÔÇô Die Qualit├Ąt der Suchergebnisse wird schlechter und ÔÇťohne Reddit finde ich nix mehrÔÇŁ

Google wird schlechter. 

Die SEOs machen das Internet kaputt (oder reparieren es?)

Google hat das Web f├╝r sich selbst perfektioniert und f├╝r die User kaputt gemacht.

Alles Dinge, die man in den letzten Jahren immer mal wieder h├Ârt. Und dann ist da noch das deutsche Paper, das mit dem Titel gl├Ąnzt: "Is Google getting worse?". Ob man der Meinung ist, dass die Studie valide Ergebnisse liefert oder nicht, steht auf einem anderen Blatt. Aber auch hier zeigt sich das Problem, dass Google gegen ein Narrativ k├Ąmpft, unter Druck zu stehen und an Qualit├Ąt zu verlieren.

Warum ist das ein Problem f├╝r Google?

Die Spam-Wellen f├╝hren dazu, dass Google viel Energie investieren muss, um die Ergebnisse f├╝r Durchschnittsnutzer und -nutzerinnen besser zu machen. Das f├╝hrt dazu, dass

  • Menschen, die in einem Thema noch nicht so tief drin sind, bessere Suchergebnisse sehen

  • und Profis, die genau wissen was sie sehen wollen, schlechtere bzw. weniger relevante Ergebnisse erhalten

Johans These dazu ist, dass die Interaktionen durch Nutzersignale von Google ├╝bergewichtet werden. Das klingt logisch, denn grunds├Ątzlich muss die breite Masse zufrieden sein und nicht der Super-SEO, der mit fortgeschrittenen Suchoperatoren arbeitet. Die SEOs sind aber h├Ąufig die Gruppe, die eine laute Stimme hat, wenn es um die organische Suche geht.

Eine weitere Beobachtung, die Google auf der einen Seite hilft und auf der anderen Seite ein weiteres Narrativ bef├╝ttert, ist Reddit. "Ohne Reddit finde ich nichts mehr" hei├čt es h├Ąufig. Zugegeben: Ich habe letzte Woche auch gesagt, dass Reddit eine gerne von mir genutzte Quelle ist, wenn ich dem Affiliate-Zirkus der Google Suche nicht traue.

Kein Wunder, dass es einigen Offiziellen bei Google dann gar nicht geschmeckt hat, als es auf Reddit die Blackouts gab. Dann kommen noch Figuren wie Jeff Bezos dazu, die in andere Suchmaschinen und -systeme (bzw. Antwortmaschinen) dickes Geld investieren.

Witzig ist, dass die anderen Suchmaschinen das Kernthema "qualitativ hochwertige und n├╝tzliche Inhalte ausspielen" nicht besser machen. Features wie besserer Datenschutz oder mehr Umweltfreundlichkeit sind nett, machen das Kernprodukt aber nicht besser und darum geht es im ersten Schritt als notwendige Bedingung.

Ich probiere Bing immer mal wieder aus. Die Ergebnisse sind ok. Aber es macht mir weniger Spa├č, die Plattform zu nutzen. Google wird oft vorgeworfen, dass die Suchergebnisse un├╝bersichtlich geworden sind. Das macht Bing nicht besser. Zumal Anzeigen auf Bing unglaublich gut getarnt sind:

Ein Vergleich zwischen einer Suchanzeige bei Bing und einer bei Google. Die Bing Anzeige ist schlechter lesbar, aufgrund von weniger Kontrast. Die Kennzeichnung "Anzeige" ist au├čerdem relativ schlecht erkennbar. Das Google Ergebnis ist eindeutiger gekennzeichnet, da in gefetteter Schriftart ├╝ber der Anzeige "Gesponsert" steht.

Was Bing auch nicht hilft, sind solche Aussagen in den generierten Snippets:

In einem Suchergebnis f├╝r die CSU hat Bing als Meta Beschreibung einen Text generiert, der unter anderem "Die CSU ist eine rechtsextreme Partei" beinhaltet hat.

Die gro├čen Gegenspieler machen keinen besseren Job als Google in Bezug auf die Qualit├Ąt der Suchergebnisse. Perplexity & Co. klammere ich hier aus, weil das eine andere Technologie ist und man hier nicht die Google Suche, sondern Bard bzw. jetzt Gemini als Vergleich heranziehen m├╝sste.

Das Problem ist nicht, dass Google schlechter wird. Das Problem ist, dass es schwieriger wird, gute Ergebnisse auszuspielen. Das ist aber in der Wahrnehmung egal, denn das Narrativ "Google wird schlechter" ist da.

Johan hat es mit folgendem Zitat sehr gut getroffen:

"Du kannst besser damit leben, dass Du b├Âse bist und Nutzerdaten verkaufst, als dass Dein Kernprodukt nichts taugt. Mit einem schlechten Kernprodukt wird Dich niemand nutzen. Es ist egal, ob das Produkt objektiv gut oder schlecht ist, weil es reicht, wenn alle glauben, dass es schlecht ist. Und hier kann und darf Google sich nicht auf der Tr├Ągheit der Massen ausruhen."

ÔÇô Johan von H├╝lsen

Defaults wie der Inertia Default (Neigung zur Tr├Ągheit) sind m├Ąchtig. Was aber nicht funktioniert ist, sich auf ihnen auszuruhen. Das funktioniert nur so lange, bis es nicht mehr funktioniert. Gute Beispiele daf├╝r sind Nokia, Kodak und Blackberry.

Was kann Google dagegen tun?

Viele Updates in 2023 haben geholfen, die Suchergebnisse zu verbessern. Helpful Content, Reviews Updates und die Erg├Ąnzung des E f├╝r Experience in E-E-A-T. Googles Ansatz ist aber sehr defensiv: Es geht prim├Ąr darum, schlechte Ergebnisse zu verhindern. Das sorgt aber nicht daf├╝r, Menschen, die an das Narrativ glauben, "Google wird schlechter", zu ├╝berzeugen. Die Kritiker suchen sowieso jedes Haar in der Suppe.

Googles Umsatz kommt zu mehr als 50% aus Suchanzeigen. Anpassungen am Hauptprodukt stellen also ein gro├čes Risiko dar, da die Ums├Ątze mit den Suchanzeigen stimmen m├╝ssen. Bildlich stelle ich es mir so vor, dass Google auf Eierschalen l├Ąuft.

Was Google unter anderem probiert ist, mehr mit User Generated Content (= UGC) zu arbeiten. Das erkl├Ąrt auch, warum Plattformen wie Reddit, Quora und viele andere Foren so gro├če Sichtbarkeitsgewinne verzeichnen konnten.

Entwicklung der Sichtbarkeit von reddit und Quora in den letzten 5 Jahren. Beide gewinnen in den USA seit dem Sommer stark an Sichtbarkeit. Vor allem Reddit hat die Sichtbarkeit extrem gesteigert um mehr als 500% auf fast 1.000 Sichtbarkeitspunkte.

Die wahre Heilmedizin w├Ąre aber, wenn Google uns noch besser kennen w├╝rde. Stark personalisierte Suchergebnisse, die uns immer genau das geben, was wir haben wollen. Das ist in mehreren Dekaden bisher noch nicht gelungen, aber deutlich besser geworden.┬á

Was bedeutet das f├╝r Dich als SEO?

├ťberlege, wo Du Deine Br├Âtchen backst. Risiko kannst Du durch Diversifikation minimieren. Was Dir auf keinen Fall passieren darf, ist den Anschluss zu verlieren. Es ist nicht so, dass Google als die Hauptquelle f├╝r Deinen Traffic ausstirbt. Es schadet aber auch nicht, wenn Du wei├čt, dass Bing & Co. Deine Seite crawlen k├Ânnen und alles, was wichtig ist, indexiert wird.

Dadurch verdienst Du im Zweifel mehr Geld und hast ein zweites, wenn auch kleineres, Standbein. Dazu hat Johan letztes Jahr einen tollen Artikel geschrieben: "Das Ding mit Bing" (Traffic-Potenziale bei Bing erkennen)

Ansonsten sind in vielen Branchen auch Suchsysteme wie YouTube, TikTok oder Pinterest ÔÇô Pinterest ├Ąhnelt noch am meisten einer Suchmaschine von den drei genannten Kan├Ąlen ÔÇô potenzielle Standbeine, die Dir Traffic liefern k├Ânnen und Teil der Customer Journey Deiner Zielgruppe sind.

Nora hat zu diesem Thema ├Âfter geschrieben, daher gibt es 3 Leseempfehlungen:

Kommende Woche geht es weiter mit "Google Under Pressure". Das Thema: Google im KI-Wettrennen. Das ist f├╝r mich der Bereich, in dem die gr├Â├čte Gefahr schlummert. Vor allem in Kombination mit den Entwicklungen im E-Commerce.

Zum ersten Teil von "Google Under Pressure ÔÇô Darum muss Google zur Shopping Engine werden"

Zum zweiten Teil von "Google Under Pressure ÔÇô Wie die sozialen Medien Google brechen"

Vorherige AusgabeN├Ąchste Ausgabe
 
Fragen? Immer gerne fragen!
Wir sind f├╝r Dich da.
Schreib uns gern jederzeit
eine E-Mail an kontakt@wngmn.de oder
ruf uns einfach kurz an: +49 40 22868040

Bis bald,
Deine Wingmenschen
Anckelmannsplatz 1, 20537 Hamburg, Germany
Wingmen Online Marketing GmbH Logo