Wirklich wahres Wingmen SEO Wissen für wache Webmarketer #194
Wingmen Online Marketing GmbH Logo
Nils Warnick
Nils Warnick
Consultant
⏰ You know what time it is

Newsletter Time 🥳 Wahrscheinlich dachtest Du auch natürlich zuerst an den 20. Februar 1547, als Edward VI. die Thronfolge als König von England antrat. Als Nachfolger von Henry VIII. trat er in berühmte oder zumindest berüchtigte Fußstapfen. Wie Du siehst, schreiten wir rasant voran. Letzte Woche war die Einleitung noch im antiken Rom. Jetzt sind wir schon im späten Mittelalter angekommen.

Nur noch ein paar Newsletter, dann können wir womöglich in der Zukunft einsteigen. Wenn wir das schaffen, versuchen wir auch SEO-Insights aus der Zukunft mitzubringen. Bis dahin müssen wir auf das zurückgreifen, was wir gegenwärtig in die Finger bekommen. Das finden wir aber auch schon reichlich spannend:

  • Matt bringt Tipps zur Analyse von Trafficverlusten mit
  • Johan erzählt von unbeugsamen Googlern
  • Sandra berichtet vom neuen SEO Starter Guide bei Google
  • Ich setze mich mit Aussagen von Google zu EEAT auseinander
  • Philipp gibt eine Einschätzung zu Googles Chancen im KI-Rennen ab

Wir wünschen Dir ein stabiles Raum-Zeit-Kontinuum und viel Spaß beim Lesen!

Was wir gelesen haben
Matthias Pülz
Matthias Pülz
Junior Consultant
Captain Google, wir sinken…

Beim Traffic von (etablierten) Websites ist es meistens wie bei einer Schifffahrt: Mal geht es ein Stück nach oben und dann wieder etwas abwärts. Idealerweise geht es trotz des kleinen Wellengangs aber auf lange Sicht betrachtet nach und nach "bergauf".

Was aber, wenn Du eines Morgens aufwachst und der hart erarbeitete Traffic (oder jedenfalls ein Teil davon) auf einmal fehlt? Hier gilt zunächst einmal das, was man auch bei einem Haiangriff tun sollte: Ruhig bleiben. Soweit die Theorie. Blöd nur, dass das mit der Ruhe in beiden Fällen leichter gesagt als getan ist.

Aber was kannst Du denn nun konkret tun, um den Trafficverlust zu analysieren (nachdem Du wie empfohlen zweimal tief durchgeatmet hast)?

Google Search Liason Danny Sullivan gibt passend dazu bei X einen simplen, aber effektiven 5-Schritte-Plan zum besten. Der sieht folgendermaßen aus:

  1. Springe in den Leistungsbericht (Performance-Report) in der Google Search Console: Performance Report in der Google Search Console

  2. Klicke auf "Datum" (Date) und vergleiche den Zeitraum des Traffic-Rückgangs mit einem vorherigen Zeitraum. Was Du hier angibst, hängt natürlich vor allem davon ab, wann der Rückgang (ungefähr) begonnen hat: Date range: Vergleichen der letzten 3 Monate mit dem vorherigen Zeitraum in der Google Search Console

  3. Sortiere die Suchanfragen nach der Differenz der Klicks: Klickunterschiede in der Google Search Console sortieren und nach den größten Unterschieden suchen

  4. Sieht Dir die Suchanfragen an, die am stärksten verloren haben: Keyword mit dem höchsten Verlust in der Google Search Console anklicken und in den Performance Report springen

  5. Überprüfe, ob Du immer noch in den Top Ergebnissen unterwegs bist. Entweder in der GSC oder auf der SERP selbst: Durchschnittliche Position eines Keywords in der Google Search Console. In diesem Fall ist die durchschnittliche Position bei 4.5

Befindest Du Dich nach wie vor in den Top Ergebnissen, liegt es seiner Aussage nach vermutlich nicht an der Qualität Deiner Inhalte, sondern daran, dass Googles System schlichtweg etwas Nützlicheres gefunden hat.

Empfehlenswert ist in solch einem Fall, sich die URLs der besser rankenden Seiten einmal genauer anzuschauen und sich zu fragen: Was machen die besser als wir? Wo haben wir noch Optimierungspotenzial? Stelle Deinen Content ruhig in Frage und prüfe, ob etwas Entscheidendes fehlt. Oder einfach nur der letzte Feinschliff.

Sicher kein großer Trost, wenn die Trafficzahlen nach unten zeigen, aber wie das bei Google meistens so ist: Keep going! Es kommen auch wieder sonnigere Zeiten und wo eine Deiner URLs verliert, gewinnt eine andere.

Sollte Deine Website, Dein Verzeichnis oder Deine URL derweil deutlich an Rankings verloren haben oder (fast) völlig vom Radar verschwunden sein, muss natürlich ein genauerer Blick her, um den Rückgang zu analysieren. Da sollte ein Check der Website (oder des Verzeichnisses oder der URL) – vor allem der Technik – und anderer Tools wie Sistrix nicht fehlen.

Johan von Hülsen
Johan von Hülsen
Geschäftsführender Gesellschafter
Ein von unbeugsamen Googlern bevölkertes Europa hört nicht auf, dem Eindringling Widerstand zu leisten

Ich finde die Asterix-Hefte fantastisch. Der Humor ist vergleichsweise gut gealtert, dafür, dass der Humor auf der Reproduktion von Stereotypen basiert.

Und wenn man die Hefte liebt, dann kommt einem der Satz meiner Überschrift immer wieder in den Kopf:

Oder wenn Google in Europa die Darstellung der Suchergebnisse anders gestaltet, als im Rest der Welt.

In Vorbereitung für den Digital Markets Act der EU wird die bisher eher lächerliche Darstellung der Alternativen zur Google Maps Integration in ein echtes Feature geändert.

Queries aus den Bereichen Travel (booking), Local (gelbeseiten) und Shopping (idealo) kriegen ein prominentes Carousel, das eine höhere CTR haben dürfte, als die alte Integration (hier lag auch für den ersten im Slider die CTR weit unter 1%). Dazu kommen neue Spezial-Suchpillen in den Ergebnissen, die ein Refinement nur auf Orte oder Jobs ermöglichen.

Über den Suchergebnissen sehen wir die neuen Filteroptionen (in den letzten Wochen konnte man die schon häufig in Tests beobachten):

Screenshot-Snippet aus der Google-Suche für den Begriff "fernseher kaufen". Unterhalb des Suchbegriffes sind Tabs mit "Alle", "Produkte", "Produktwebsites", "Bilder", "Orte". Darunter sind Pills zum weiteren Filtern wie "Smart TV", "Used", "Nearby", "Samsung" und "LG".

Ein Klick auf "Produktwebsites" führt zu einer Ergebnisliste, die ausschließlich von Preisvergleichen (idealo, guenstiger) und Vergleichsseiten (vergleich, testit) bevölkert wird.

Ein Klick auf "Produkte" dagegen führt zu Google Shopping.

Nach den ersten organischen Treffern (auf der Hauptseite „alle") gibt es das neue Carousel (in diesem Fall unter der Maps-Integration):

Ausschnitt aus der Google SERP mit neuem Carousel Feature, das sich in diesem Fall unter der Maps-Integration befindet

Hier ist deutlich zu sehen, dass die Integration eher der Integration der Top-Seiten in der SGE ähnelt, als die alte Maps-Integration.

Hier einmal der Vergleich für „Bewerbungsfoto Ahrensburg":

Alt:

Alte Darstellung der SERP inklusive Map-Integration für die Query "bewerbungsfoto ahrensburg"

Neu: Neue Darstellung der SERP mit Carousel für die Query "bewerbungsfoto ahrensburg"

Gut zu sehen, dass hier die CTR auch ohne Foto wesentlich besser sein wird, als mit der alten Integration.

Neu sind auch die unterschiedlichen Darstellungen dann auf den „Filter-Seiten".

Hier einmal die Darstellung des ersten Treffers für „bewerbungsfoto ahrensburg" in der neuen Filter-Seite „Websites zu Orten":

SERP von Google für das Keyword "bewerbungsfoto ahrensburg". Der Reiter "Websites zu Orten" ist ausgewählt, inklusive neuen Carousel Features

Bist Du in den Bereichen

  • Produktvergleiche
  • Jobs
  • Flüge
  • Branchenbücher (im weitesten Sinne)

unterwegs, dann hast Du folgende Aufgaben:

  1. Prüfen, ob Du überhaupt in diesen Features angezeigt wirst. (Wenn nicht, kannst Du eine Inklusion über die verlinkten Formulare beantragen.)

  2. Prüfe, wie Du dargestellt wirst. Hast Du den gleichen Platz wie Deine Wettbewerber? Hast Du ein Bild?

  3. Wie wirkt sich das auf die CTR aus? Lohnt es sich, mit den Bildformaten und Title-Attributen zu spielen?

  4. Die Reihenfolge innerhalb des Carousels scheint sich weiterhin an den normalen Ergebnissen zu orientieren. Durch die auffälligere Integration kann das aber bei manchen Queries ein schöner Shortcut auf Seite 1 sein.

  5. Stelle in der GSC einen Feature-Request, dass Du in der Lage sein möchtest die Klicks in diesem Feature von normalen Klicks zu unterscheiden. Wir brauchen außerdem Informationen, ob der Klick auf der normalen Ergebnis-Seite stattgefunden hat, oder auf einer Filterseite.

Was denkst Du über die Änderung?

Sandra Radtke
Sandra Radtke
Consultant
Googles neuer SEO Starter Guide

Zugegeben, der ist nicht neu, aber Google hat den Startleitfaden zur Suchmaschinenoptimierung grundlegend überarbeitet. Diese aktualisierte Version ist aktuell aber erstmal nur auf Englisch verfügbar.

Was hat sich geändert?

Google hat ausgemistet. Der Starter Guide ist jetzt deutlich kürzer. Geblieben sind Informationen, die SEO-Anfängerinnen und -Anfänger tatsächlich benötigen. Google hat also selbst den eigenen Text entsprechend der Zielgruppe geschärft.

Was nicht mehr im Guide steht, wurde zu Gunsten der eigenen Artikel aus dem Starter Guide verlinkt. Ein bisschen was ist aber neu dazugekommen. So gibt es jetzt Erklärungen, warum bestimmte Vorgehensweisen empfohlen werden und eine Liste von Theorien, auf die sich SEO-Neulinge nicht fokussieren sollten. Dazu zählen:

  • Meta Keywords
  • Keyword Stuffing
  • Keywords im Domainnamen oder im URL-Pfad 
  • Content-Länge
  • Aufteilung in Subdomains oder Unterverzeichnisse
  • PageRank als einziger Rankingfaktor
  • Angst vor einer "Penalty" wegen Duplicate Content 
  • Anzahl und Reihenfolge der Überschriften
  • E-E-A-T als Rankingfaktor

Einige Punkte dieser Liste möchte ich kurz kommentieren, da sie losgelöst vom Starter Guide missverstanden werden könnten.

Ob Du nun Verzeichnisse oder Subdomains nutzt, spielt in der Tat keine so große Rolle. Google kann Deine Inhalte finden. Im Starter Guide steht aber auch:

"If you have more than a few thousand URLs on your site, how you organize your content may have effects on how Google crawls and indexes your site. Specifically, using directories (or folders) to group similar topics can help Google learn how often the URLs in individual directories change."

Bei großen Webseiten wäre es Google daher doch ganz lieb, wenn Du Unterverzeichnisse hast.

Auch Keywords im URL-Pfad sind zwar für Google erstmal nicht wichtig, aus Usersicht aber sinnvoll. Denn diese Keywords im URL-Pfad können im Suchergebnis als Breadcrumb angezeigt werden (was Google im Starter Guide ebenfalls selbst beschreibt).

Duplicate Content führt natürlich nicht zu einer "Penalty" – aber dennoch zu Problemen. Denn, wenn es mehrere URLs den gleichen Inhalt zeigen, kann häufig keine URL davon eine gute Position in den SERPs erzielen und:

"Having duplicate content on your site is not a violation of our spam policies, but it can be a bad user experience and search engines might waste crawling resources on URLs that you don't even care about."

Dass E-E-A-T kein eigener Rankingfaktor ist, ist natürlich logisch. Wer jetzt aber denkt, dass das dann egal sein kann, liegt falsch. Erfahrung und Expertise von echten Autoren spielen zum Beispiel eine große Rolle, wenn Google im zweiten Schritt einschätzt, wie hilfreich Dein Content ist.

Und zu guter Letzt: Anzahl und Reihenfolge der Überschriften. Ja, die Anzahl ist egal. Aber nein, die Reihenfolge der Überschriften ist sehr wohl wichtig.

"Having your headings in semantic order is fantastic for screen readers, but from Google Search perspective, it doesn't matter if you're using them out of order."

Google mag es egal sein, aber eben weil es fantastisch für Screen Reader ist, sollten Überschriften in der richtigen Reihenfolge stehen. Denn am Ende kauft nicht Google im Online-Shop ein oder freut sich über einen hilfreichen Artikel, sondern die Menschen vor den Bildschirmen. Und für die ist Barrierefreiheit – und eben auch die richtige Reihenfolge von Überschriften – wichtig. Also bitte hör in diesem Punkt nicht auf Google, sondern achte auf die richtige Reihenfolge Deiner Überschriften 😉

Was hältst Du vom neuen Starter Guide? Findest Du die kurze Version besser oder schlechter?

Nils Warnick
Nils Warnick
Consultant
Kommentarspalten kolportieren kaum kräftige Kenntniss

Bei X (ehemals Twitter) stolperte ich letztens über einen Tweet/Post innerhalb eines Threads (falls die noch so heißen), in dem sich die geschätzten Kollegen Mordy Oberstein und Barry Schwartz scheinbar ein wenig darüber in die Haare bekommen, wie wichtig E-E-A-T für den Erfolg einer Website seien. Ich formuliere das deshalb etwas vage, weil gefühlt ein wenig aneinander vorbeigeredet wird.

"OMFG.

Are we still splitting hairs on this?

This just in... E-E-A-T in a CONCEPT and conceptually aligns with the other concepts that the algorithm is trying to manifest on the SERP.

Who gives a flying f**k if it's a factor or not a factor or a factor within a factor that lives inside snail shell floating in the ocean or a factor that used to be married to another factor but is since thrice divorced and living in van down by the river!

Is not being dumb a ranking factor? Does that mean you should be dumb?

Dr: You should quit smoking

SEOs: Is quitting smoking a ranking factor?

Dr. No.

SEOs: Smoke 'em if you got 'em baby!

I'm done. Y'all have broken me."

– Mordy Oberstein on X

Wenn auch etwas reißerisch formuliert, fand ich die Betrachtungsweise zum Thema, ob etwas nun ein Ranking Faktor ist oder nicht ganz interessant.

In der Diskussion habe ich außerdem noch einen neuen Side Fact für mich gelernt. Und zwar, dass Google selbst sagt, sie würden gar nicht versuchen zu erkennen, ob jemand ein Experte ist oder nicht. Wobei das vielleicht auch etwas überspitzt von mir übersetzt wurde. Deshalb hier das englische Original von Danny Sullivan:

"It's not a ranking factor. It's not a thing that's going to factor into other factors.

Having an expert write things doesn't magically make you rank better, because

1) anyone could self declare someone to be an expert, and that means nothing and

2) we don't somehow try to check and say "yes, that's an expert."

Eventuell soll das auch nur heißen, dass es keine klare Einteilung und den damit verbundenen Bonus gibt. Es klingt beim ersten Mal lesen aber so, als wären Autorenseiten, Structured Data, etc. vergebene Liebesmüh. Der Vollständigkeit halber geht das Zitat noch weiter:

"What would be a good thing is having an expert write content that people like an appreciate, because the expertise they have is self-apparent.

And if people like your content, you're naturally lining up with completely different actual singles we use to reward people-first satisfying content."

Ich behaupte Mal dass "Singles" hier "Signals" meint. Zynische Leser würden da vermutlich rausinterpretieren, dass der Autor egal ist, solange es dem Nutzer hilft und der Text selbst die "Experten-Qualität" hat. Das passt zum vorangegangenen "anyone could self declare someone to be an expert, and that means nothing".

Diese Betrachtungsweise entvalidiert aber etwas stark die Bedeutung von Autoren oder zumindest Entitäten, wenn man es so nimmt. Meine These: Diese Aussage ist sehr stark auf das Bestehen von E-E-A-T als Ranking-Faktor gemünzt. Außerhalb des Rankings gibt ja etliche weitere Mechanismen und hier spielen Entitäten aber eine größere Rolle. Eventuell bei der Erkennung, ob etwas Spam sein könnte oder bei der Aufnahme in den Index.

Vor dem Hintergrund der aktuellen Entwicklungen im Bereich der Content-Erstellung durch AI muss Google Maßnahmen finden, um Content qualifizieren zu können. Das kann im Endeffekt entweder durch Fakt-Checkung oder die Vertrauenswürdigkeit des Absenders geschehen. Solltest Du also beim Lesen bereits angefangen haben, Deine Autorenseiten einzureißen, bitte stell sie wieder hin :)

 Philipp Götza
Philipp Götza
Junior Consultant
Google Under Pressure – Verliert Google das KI-Wettrennen?

Auf LinkedIn und in den Medien liest man häufig: "Google hinkt im KI-Bereich hinterher".

Auch in Gesprächen kommt das Thema immer wieder auf. Ob das wirklich so ist, oder nur so wirkt und Google sehr vorsichtig ist, kann man von außen nur mutmaßen. Da Google bereits in einige Fettnäpfchen getreten ist, möchte man natürlich das Risiko minimieren, erneut grobe Fehler zu machen.

Klar ist auch, dass KI bleibt und ein wichtiges strategisches Geschäftsfeld ist. Google hat sich bereits vor einigen Jahren als "AI-first company" bezeichnet und muss die eigene Stellung etablieren und behaupten.

Aber bisher haben die KI-Produkte (noch) nicht gezündet:

  • Bard hat nichts getaugt und wurde umgetauft, 
  • die SGE ist bisher nur eine Beta und 
  • Gemini (vorher Bard) konnte sich bisher nicht eindeutig gegen GPT4 & Co. durchsetzen.

Die Position, der anerkannte Marktführer im Bereich KI zu sein, fehlt Google also.

Warum ist das ein Problem für Google?

Microsoft hat mit Bing zwar keine großen Marktanteile in den Suchmaschinen gewonnen, aber Google zum Tanzen gebracht. Es geht um Disruption und darum, Google angreifbar zu machen. Google muss sich bewegen und wagt sich aus der Deckung.

Dass die SGE bereits so früh gezeigt wurde, war vermutlich eine Reaktion auf die Bewegungen im KI-Markt, um zu zeigen "hey, das was wir haben ist viel cooler" oder "wir haben hier auch was im Ofen".

Dazu gesellen sich Fehler in der Außendarstellung. Bereits zur Ankündigung von Bard, kurz nach der Ankündigung zum BingBot, gab es einen Schnitzer im Promomaterial mit Falschinformationen:

Ein Frame aus dem Promo-Material für Google Bard. Die Antwort von Bard behauptet, dass JWST das erste Bild eines Planeten außerhalb unseres Sonnensystems gemacht habe, was nicht stimmt.

Als Google Gemini vorgestellt hat, kam heraus, dass mit eins der beeindruckendsten Videos "fake" war bzw. bearbeitet wurde. Es ist in der Außenwahrnehmung egal, wie nah oder weit davon entfernt das Ergebnis von der Gemini-Realität ist:

"Andere nennen es normalerweise Marketing, bei Google ist es Fake, weil Google der Große ist."

– Johan von Hülsen

Was interessant ist: Niemand interessiert sich für die Fehltritte von Bing, außer es kommt zu Totalausfällen, in denen Bing z. B. die CSU als rechtsextreme Partei bezeichnet. Da ist dann auch für Bing der Bogen überspannt.

Google muss gefühlt doppelt so gut sein, um nicht (in der Wahrnehmung) überholt zu werden.

Solche Patzer und die Aktionen der Konkurrenz (z. B. Bing, ChatGPT und Perplexity AI) führen bei einer so großen Zielscheibe dazu, dass sich Druck und Schwachstellen auftun. OpenAI arbeitet laut Gerüchten mittlerweile auch an einer eigenen Websuche.

Im ersten Teil von Google Under Pressure "Darum muss Google zur Shopping Engine werden" ging es vor allem um die Entwicklungen im E-Commerce und den ewigen Kampf gegen Amazon was Shopping-Suchen angeht.

Passend dazu hat Amazon den guten Rufus – Amazon's KI-Shopping-Assistenten – angekündigt. Johan ist noch nicht überzeugt, ob das eine große Gefahr ist, weil unklar ist, ob User Rufus statt der Google Suche nutzen. Ich stimme Johan zu, schätze das Risiko aber als größer ein.

Prinzipiell bin ich auch kein Fan davon, den Teufel an die Wand zu malen, aber wir tun Dinge, wenn sie einfach "einfach sind". Und wenn sowieso schon nach Produkten häufig(er) auf Amazon gesucht wird, dann wäre ein Shopping-Assistent auf Basis der Daten von Amazon (inklusive Reviews) komfortabel und hilfreich.

Amazon nutzt bereits jetzt KI in ihrem Produkt, um beispielsweise Reviews zusammenfassen zu lassen. Diese wurden mir nur mobile angezeigt, sind aber für Google definitiv crawlbar:

Ein Ausschnitt einer Produktseite von Amazon.com, die in der Mobilansicht von KI zusammengefasste Produktbewertungen zeigt. Darunter ist ein Ausschnitt aus dem Rich Results Test der verdeutlicht, dass Google diese Inhalte crawlen kann.

Last but not least: Arc, die "Browser Company" hat ihren Masterplan angekündigt, Suchmaschinen und damit SEO (und Websites) obsolet zu machen. Alles auf den Kopf stellen und visionär denken – das mag ich. Aber ich habe zum jetzigen Zeitpunkt viele Fragen und für das beschriebene Vorhaben gab es auch Kritik.

Google ist der Löwe im Kampf gegen eine Gruppe von Hyänen (= Wettbewerber wie Microsoft mit Bing, OpenAI mit ChatGPT, Perplexity AI & Co.). Meistens gewinnt der Löwe, aber nicht immer. Diese Wahrnehmung kostet gute Leute, die abwandern und schmälert die Zukunftsaussichten für Google.

Was kann Google dagegen tun?

Um hier für Verbesserung zu sorgen, dürfen Google keine Fehler passieren. Die "Anderen" nehmen sich in kleinen Teilen, was sie kriegen können. Die KI-Produkte von Google müssen sitzen. Zur SGE habe ich schon einiges geschrieben und in der täglichen Dosis SEO oder dem SEOSenf Podcast gesprochen.

Was für mich mit zunehmender Zeit klar wird, vor allem wenn man an den Earnings Call aus dem vierten Quartal 2023 denkt:

Wenn die SGE dazu führt, dass die Umsätze aus den Suchanzeigen langsamer wachsen, dann ist das Korsett ganz schön eng.

Google versucht es so aussehen zu lassen, als sei alles in Ordnung. Für mich klingt das aber mehr nach einer PR-Aktion, um die Aktionäre zu beruhigen.

Was wir noch gar nicht thematisiert haben: 

Was ist mit der großen Menge an KI-generiertem Müll, der nicht hilfreich, nur mittelmäßig gut oder ein Wiederkäuen bereits existierender Inhalte ist?

Das Crawling dieser Inhalte kostet zusätzlich Geld. Es ist aber wichtig, dass hochwertige Inhalte in der Suche von Google auftauchen, damit wir die Suche gerne nutzen. Das lässt zwei Möglichkeiten offen:

  1. Google indexiert mehr Inhalte und schiebt die schlechten Inhalte weiter nach hinten oder
  2. Google hält den Index in einer ähnlichen Größe wie bisher und muss stärker aussieben.

Wenn mehr Mittelmaß oder Müll produziert wird, dann ist es einfacher zu sagen "Google wird schlechter" anstatt "die durchschnittliche Qualität der veröffentlichten Inhalte wird schlechter".

Ein paar Bewegungen gegen AI-Content konnten wir in den vergangenen Wochen und Monaten immer wieder beobachten.

  1. Ein unbekanntes Projekt vor ChatGPT (mit einem Tool auf Basis von GPT3 von Mark Williams Cook): Eine Publikumsaufnahme von der Pubcon die Daten aus der Google Search Console zeigt. Der organische Traffic ist zu einem Zeitpunkt eingebrochen und zu einem zweiten Zeitpunkt auf nahezu 0 gefallen.

  2. Der berühmte SEO Heist von Causal: Ein Sichtbarkeitsgraph von Sistrix von causal.app aus den USA. Ende 2023 fällt der Graph nach einem deutlichen Anstieg auf ca. 0,04 von 0,44.

  3. LinkedIn mit den kollaborativen Artikeln: Ein Sichtbarkeitsgraph von Sistrix, der den Folder linkedin.com/advice zeigt. Dieser steigt Mitte 2023 stark an, fällt zwischenzeitlich massiv um mehr als 50% und erholt sich in 2024 deutlich.

Hier scheint sich das Blatt allerdings zu wenden, was die reine Sichtbarkeit angeht. Interessant, da die Inhalte teilweise mit Falschinformationen gespickt sind und Menschen eingeladen werden, sich zu beteiligen, die mit einigen Themen keine Erfahrung oder Expertise haben. Für mich das Gegenteil von guten & hilfreichen Inhalten.

Einen weiteren Aufreger gab es bei der Sports Illustrated, die Affiliate Reviews mit Fake-Autoren veröffentlicht haben. Nach einem Shitstorm gingen die Inhalte offline.Ein Sichtbarkeitsgraph aus Sistrix von Sports Illustrated und dem Review-Verzeichnis. Bereits 2022 fällt der Graph stark. 2023 fällt er dann erneut mehrmals und erreicht den 0 Punkt, da die Inhalte offline genommen wurden.

Um sich vor den Content-Fluten zu schützen, braucht Google entsprechende Systeme, die zum einen erkennen, wenn Websites gegen die Richtlinien für die Content-Erstellung widersprechen. Danny Sullivan hat sich gerade kürzlich nochmal dazu in einem Tweet geäußert (Hervorhebung von mir):

"Using automation —including AI—to generate content with the primary purpose of manipulating ranking in search results is a violation of our spam policies" is something we thought was pretty clear from our post last year: https://developers.google.com/search/blog/2023/02/google-search-and-ai-content.

People who read that and somehow interpret it as a "free pass" should seriously be rethinking. I'm sure you'll also see us look at ways to make this even clearer."

Zum anderen ist für Google aus meiner Sicht deutlich wichtiger, dass Nutzern und Nutzerinnen hilfreiche Inhalte ausgespielt werden. Dabei helfen Initiativen wie Helpful Content, E-E-A-T, SpamBrain und die hohe Gewichtung von Nutzersignalen. Letzteres führt aber vermutlich teilweise zu dem Problem der Qualitätswahrnehmung.

Was bedeutet das für Dich als SEO?

Eine Sache, die man aus dem SEO Heist mitnehmen muss:

"Never make Google look bad."

Bei dem Thema KI-Content wäre ich sehr vorsichtig. Programmatische Ansätze scheinen relativ gut zu funktionieren, was die Erstellung angeht. Probleme mit Google kann es aber trotzdem geben, wie dieser Fall von Chris Lever zeigt:

Daten aus der Google Search Console von Chris Lever. Die Clicks steigen on November 2023 bis Anfang 2024 massiv an und fallen dann im Februar auf 0.

Reiner KI-Content kann ranken, ja. Es gibt auch einige Beispiele, in denen es über einen längeren Zeitraum gut geht. Aber sind das hochwertige Inhalte, die die Wahrnehmung der eigenen Marke in ein positives Licht rücken?

Ein zweiter Gedanke: Wir sehen deutlich häufiger Beispiele, die gut funktionieren, als Beispiele, die nicht gut funktionieren. Im Buch "Fooled by Randomness" schreibt Nassim Taleb:

"In a nutshell, the survivorship bias implies that the highest performing realization will be the most visible. Why? Because the losers do not show up."

Natürlich gibt es auch Fails, über die wird aber seltener gesprochen oder nachgedacht.

Die große Schwierigkeit ist die Erstellung von gutem Editorial Content. KI kann hier helfen, aber nicht jeden Schritt der Prozesskette vollständig übernehmen. Was gut funktioniert:

  • Ideenfindung
  • "Brainstorming" für Headlines, etc.
  • (Ansätze für) Eine Outline erstellen entsprechend von Vorgaben
  • Einzelne Textblöcke klarer und einfacher formulieren lassen

Die KI ist also ein Sparringspartner, kein heroischer Weltmeister.

Die KI-Content-Beispiele wirken auf den ersten Blick beeindruckend, keine Frage. Aber selbst wenn die Rankings und der Traffic am Ende stimmen und Google die Inhalte erstmal gut findet, geht es im Kern nicht um Traffic (außer das ist Dein Geschäftsmodell), sondern Umsatz und Conversions.

Wenn Du gute Inhalte mit KI erstellen kannst, die Deine Nutzer und Nutzerinnen lieben, dann wird Google Dich langfristig auch lieben.

Zum ersten Teil von "Google Under Pressure – Darum muss Google zur Shopping Engine werden"

Zum zweiten Teil von "Google Under Pressure – Mehr Meinung, mehr Video und mehr Inspiration"

Zum dritten Teil von "Google Under Pressure – Google wird schlechter und "ohne Reddit finde ich nix mehr"

Vorherige AusgabeNächste Ausgabe
 
Fragen? Immer gerne fragen!
Wir sind für Dich da.
Schreib uns gern jederzeit
eine E-Mail an [email protected] oder
ruf uns einfach kurz an: +49 40 22868040

Bis bald,
Deine Wingmenschen
Anckelmannsplatz 1, 20537 Hamburg, Germany
Wingmen Online Marketing GmbH Logo