Wirklich wahres Wingmen SEO Wissen für wache Webmarketer #287
Wingmen Online Marketing GmbH Logo
Florian Stelzner
Florian Stelzner
Geschäftsführender Gesellschafter
🪩 Weihnachtliche Google Hardcore Vibes – Bäm, Bäm, Bäm!

Während Du gerade an Deinem Kaffee schlürfst und das Bäm, Bäm, Bäm des Newsletter-Titels noch verarbeitest, probier doch mal mit gespitzer Zunge noch die Snare-Drums beizusteuern: izz, izz, izz, izz, izz.

Ja, genau. Jetzt bist Du im Hardcore-Vibe angekommen. Und hör auf die Augen zu rollen… ich hab’ damit nicht angefangen. Google ist der Meinung, mal wieder pünktlich zum Jahresendspurt ein bisschen Besinnlichkeit zu servieren.

Just in diesem Moment rollt das Google Core Update aus. Viele kleinere Vorstufen zum Core Update wurden wahrscheinlich schon in den letzten Wochen klammheimlich ausgerollt, sagt Johannes.

Das deckt sich auf jeden Fall auch mit unseren Beobachtungen. Es schwankt gar weihnachtlich in den SERPs. Wie immer heißt es ruhig bleiben, analysieren, nachdenken, planen, machen und nicht in Hektik verfallen. Quasi ganz genau wie bei der weihnachtlichen Besinnlichkeit. Geschenke haste längst alle besorgt, die Futterplanung steht und das Kaminholz ist gehackt. Super!

Dann hast Du ja Zeit, Dir die Erkenntnisse unserer lieben Wingmenschen aus der letzten Woche zu gönnen. Heute haben wir für Dich:

  • Schranz-Schneemann Matt über Google Updates
  • Stroboskop-Santa Nils über das Google Search Central Event in Zürich
  • Speed-kulatius Johan über neue Features der Google Search Console
  • Knecht Rave-precht Philipp über die Schattenseiten von AI
  • Ich darüber, wie Googles Vertex AI Search Inhalte filtert und verankert

Zum Abschluss ein Gedicht

Bei Google glüht der Suchverlauf, die Wingmenschen drehen Hardcore auf. Wir hacken wild um'n Tannenbaum, die Wingmenschen, die glauben's kaum.

Dies ist die letzte Ausgabe im Jahr 2025. Wir lesen uns wieder am 06.01.2026.

Wir wünschen Dir und Deinen Liebsten ein wunderbares Weihnachtsfest und einen guten Rutsch in ein glückliches, gesundes und erfolgreiches 2026!

Viel Spaß beim Lesen!

Deine Wingmenschen

Was wir gelesen haben
Matthias Pülz
Matthias Pülz
Junior Consultant
Santa Core… Hinter jedem Türchen lauert ein Update

Google bleibt fleißig – auch in der Vorweihnachtszeit: Neben dem bereits in der Einleitung erwähnten Core Update, das so kurz vor Weihnachten noch einmal Angst und Hoffnung in die Herzen der Website-Betreiberinnen und -Betreiber zaubert, hat Google nun auch noch einmal bestätigt, dass es neben diesen großen, bösen, offiziellen Updates noch weitere gibt. Quasi Updates, die sich in den dunklen Gassen abspielen. Ganz heimlich…

Neu in der offiziellen Doku gibt es nun nämlich noch einen Hinweis, dass Google regelmäßig kleinere, nicht angekündigte Core Updates ausrollt. Heißt übersetzt: Wer seinen Content verbessert, muss nicht zwingend auf das nächste große Update warten, um Ranking-Verbesserungen zu sehen. Kleine Updates können schon vorher für Aufwind sorgen: Hinweis aus der Google Doku: Sie müssen jedoch nicht unbedingt auf ein grundlegendes Update warten, um die Auswirkungen Ihrer Verbesserungen zu sehen. Wir aktualisieren unsere Suchalgorithmen ständig und nehmen auch kleinere grundlegende Updates vor. Diese Updates werden nicht angekündigt, da sie nicht allgemein bemerkbar sind. Sie sind jedoch eine weitere Möglichkeit, die Position Ihrer Inhalte zu verbessern, wenn Sie Verbesserungen vorgenommen haben.

Das ist nun ehrlicherweise keine ganz neue Erkenntnis. Allerdings ist es doch schön und tröstlich, wenn es nun auch einmal schwarz auf weiß in den offiziellen Entwickler-Docs steht. Nett von Google, das nochmal klarzustellen.

Abschließende Worte:

Gut, gut. Eine allzu große Überraschung ist diese Neuigkeit sicher nicht. Trotzdem… Für mich zeigt das alles ziemlich klar: Google bewegt sich weg von großen, seltenen Update-Momenten hin zu einem ständigen Bewertungsprozess.

Das Helpful Content System läuft inzwischen ja auch quasi dauerhaft mit. Nun also auch offiziell kleinere Core Updates. Gerade mit KI und Machine Learning wird das eher mehr als weniger.

Heißt ganz pragmatisch: Warten aufs nächste große Update bringt immer weniger. Und muss auch nicht mehr sein. Stattdessen gewinnt auf lange Sicht, wer seine Inhalte regelmäßig pflegt, wirklich hilfreicher macht und konsequent an der Intention von Nutzerinnen und Nutzern entlang optimiert. Und wenn ich ehrlich sein soll: So rum ist’s mir deutlich lieber.

Nils Warnick
Nils Warnick
Consultant
Google legt nochmal nach

Heute vor einer Woche hatte ich das Glück, am Google Search Central Event in Zürich teilnehmen zu können. Shoutout an Anke, mit der das Co-Working auf den 7,5 Stunden Bahnfahrt am Vortag die Fahrtzeit angenehm schnell vergehen ließ.

Einsteigen möchte ich mit einem Statement von John Mu, das ich nach bestem Wissen und Gewissen notiert habe: “I wouldn't be surprised if one [another core update] happened in the next few weeks.” Manchmal geht es scheinbar doch schneller als erwartet und Google legt uns allen ein leicht verfrühtes Weihnachtsgeschenk unter den Baum. Denn seit dem 11. Dezember um 9:25 PST rollt das December 2025 Core Update aus. Merry Christmas. Die Dauer könnte nach Angaben im Status Dashboard bis zu drei Wochen betragen, wir freuen uns also über Auswertungen im neuen Jahr.

Auf dem Event selbst wurden weniger bahnbrechende News verkündet. Mit großem Trommelwirbel wurde das neue GSC Feature der aggregierten Daten (nach Wochen und Monaten) verkündet. Hier hatte sich der ein oder andere Teilnehmer möglicherweise etwas mehr erhofft, wie z.B. Daten zu AI Overviews, aber ein Quality-of-Life Feature nehmen wir trotzdem gerne mit. Wobei die Frage von Stephan Czysch – “Wieso denn nicht gleich auch Quartale?” – vorerst offen bleibt.

Mehrere Kollegen fragten mich, ob sich der Weg nach Zürich gelohnt habe, was ich definitiv bejahen würde. Für mich war es auch der erste Besuch eines solchen Google Events, was natürlich an sich schon spannend ist. Ob der Bereich, den wir als Gäste betreten konnten, schon die “heiligen Hallen” genannt werden kann, lass ich mal dahingestellt. Aber für ein Event, für das wir als Besucher nichts bezahlen, bekommen wir schon einiges geboten.

Folie der Präsentation von John Mu, der seitlich am Rednerpult steht. Auf der Folie steht ein Zitat von Liz Reid, Head of Google Search: "We#re committed to highlighting high-quality content on the web and we will continue to refine how we do it."

Talks von Google aus unterschiedlichen Bereichen, Community-Vorträge, Q&A mit den Googlern sowie Verpflegung über den Tag – da möchte ich nicht meckern. Wobei ich mir insgeheim ein wenig mehr vom Q&A mit John & Co. erhofft hatte. Sicherlich wird dort nicht mal eben die Google-Strategie im Umgang mit AI ausgeplaudert werden, aber für meinen Geschmack kamen die wirklich spannenden Fragen nicht auf das Tableau. Auch wenn ich nicht unterschlagen will, dass es durchaus einige konkrete Antworten gab, gerade im Bereich strukturierte Daten oder Google Shopping.

Ketzerischer Gedanke: Vielleicht hing das auch damit zusammen, dass die Fragen bei diesem Event per QR-Code und Formular eingereicht worden sind und somit noch besser zu moderieren waren. Oder ich bin einfach etwas zerknirscht, dass die von mir eingereichten Fragen es nicht geschafft haben. :D

In der Bugwelle des Events sind andere News fast unter dem Radar mitgeschwommen. So hat Google am letzten Mittwoch angekündigt, dass bevorzugte Quellen (orig. Preferred Sources) Anfang nächsten Jahres global ausgerollt werden. Dadurch lassen sich die Top Stories in den News individualisieren. Das bedeutet:

  • Wenn man eine Subscription hat, werden die Links bald gehighlighted. Ob sich das nur auf Subscribe with Google bezieht oder auch andere Mechanismen beinhaltet, ist noch unklar.
  • Außerdem werden AI Mode- und AI-Overview-Verlinkungen auffälliger gemacht, damit mehr Leute auf Links in AI-Features klicken.
  • Dazu wirst Du häufiger dem Web Guide-Feature begegnen.

Für Publisher wird jetzt die Frage spannend, wie Nutzer am besten dazu bewegt werden können, die eigene Veröffentlichung als bevorzugte Quelle anzugeben. Um somit in der Folge der Hauptanlaufpunkt für mehr und mehr User zu werden.

In der gleichen Ankündigung werden außerdem neue Partnerschaftsprogramme angekündigt. Wörtlich heißt es: “One of the ways we make our products more helpful is through commercial partnerships, in which we pay for extended display rights and content delivery methods like APIs.” Also Geld, wenn man Content an die AI liefert. An dem Pilotprojekt ist unter anderem Der Spiegel beteiligt. Wie so ein AI-Summary für die Partner aussehen kann, könnt ihr bei John Shehata auf LinkedIn sehen.

Wenn man auf die Woche zurückblickt, dann trumpfen die News neben dem Event in Zürich doch etwas auf. So oder so, ein ereignisreicher Dezember.

Johan von Hülsen
Johan von Hülsen
Geschäftsführender Gesellschafter
Lieber guter Weisbergmann*, komm mit Deinen Gaben

*Wortspiele mit Namen waren schon immer doof.

Daniel Weisberg ist Head of Google Search Console (inhaltlich. Das ist nicht sein Job-Title) und haut gerade eine Batterie an „Features“ raus.

Für mich ist das leider Blendwerk. Nett, aber für eine professionelle Seite irrelevant.

Falls Du Dich fragst, was ich mit kaputten Filtern meine:

Mach einmal den Katzen-Test:

  1. Du merkst Dir die Gesamt-Klicks laut GSC Performance-Bericht.
  2. Du filterst nach Keywords, die “ewrtzjksaewretrterwfqdsacdvs” (irgendwas, was nicht in einem Query enthalten ist. Behrend und ich nennen das „Katze läuft über die Tastatur“). Du erhältst 0 Klicks. Logisch.
  3. Du drehst den Filter um und vergleichst die Zahl mit den Gesamt-Klicks.

Die Erwartung wäre, dass die Zahlen identisch sind, da:

  • Gesamt-Klicks
  • Minus 0 Klicks mit Katzenfilter
  • = Klicks ohne Katzenfilter

Die Gleichung geht aber nicht auf, weil Anonymisierung, Filterung und Sampling dafür sorgen, dass nur noch ein Bruchteil Deines Traffics im GSC-Interface sichtbar bleibt. (Wir kennen Properties, bei denen 20% noch sichtbar sind).

Im Zweifel basieren also alle Deine Filterungen im Interface auf solchen Filterungen.

Aktuell ist ja die Zeit überzogene Wünsche auf Zettel zu schreiben („kriegt Kinder“ haben sie gesagt. „Sie geben so viel zurück“ haben sie gesagt.). Motiviert von Caner kommt jetzt also:

Meine Wunschliste zu Weihnachten an die GSC für 2026

  1. Eine Anzeige, dass die Daten gefiltert sind und wie groß der Anteil nicht ausgewerteter Daten ist, damit Menschen weniger falsche Entscheidungen auf Basis falscher Daten treffen;
    1. Außerdem sollte immer angezeigt werden, ob die angezeigten Daten aus dem byPage- oder byProperty-Datentopf kommen, insbesondere dann, wenn der Graph und die Tabelle sich dabei unterscheiden.
    2. Und in Tabellen mit Vergleich zwischen 0 und nicht verfügbar unterscheiden. Es macht einen Unterschied, ob es tatsächlich 0 Klicks sind oder ob die Query/Page es lediglich nicht unter die Top 1000 der jeweiligen Filterung geschafft hat.
  2. Eine Möglichkeit, nach allen Einblendungen in der GSC zu Ein- und Ausschluss-Filtern (News-Box, Image-Box, KnowledgeGraph, AI Overview, Sitelinks etc.), damit man endlich vernünftige Aussagen machen kann, wenn das Geschäftsmodell etwas komplexer als B2B branded Traffic 10 Blue Links ist.
  3. Die Möglichkeit, alle Verticals zu filtern, nicht nur Images, News, Videos. Was ist mit Shopping? AI-Mode? Produkte? Produktwebsites? Foren? Orte? Kurz-Videos? Websites zu Orten? Flüge? …? Dürfen wir das nicht haben, weil es keiner nutzt? Oder weil es zu viele nutzen?
  4. Die Möglichkeit Gemini, Lens und andere Quellen auszuwerten.
  5. Mehr Details für Discover-Appearance: Kleines Bild? Großes Bild?
  6. Index-Report: Filter nach URL-Mustern (RegEx!), damit man sich nicht 1000 Folder-Properties anlegen muss.
  7. Index-Report: Mehr Verlässlichkeit und häufigere Aktualisierung (>20 Tage keine Daten sind teilweise wirklich ein kritisches Problem. Kein Update der Indexierung bei größerer Migration ist mehr als ärgerlich. Wirklich!)
  8. Index-Report wollen wir nicht sortieren nach “Wann hat Google die URL kennengelernt”. Durch die aktuelle Sortierung sieht es so aus, als ob URLs in Crawled not indexed fälschlich reported sind, weil der manuelle Check im Sample immer indexierte URLs ausgibt.
  9. URL Inspection: Wenn Weiterleitungen (oder Canonicals) gefolgt wird, dann ausgeben, dass die stattgefunden haben. Muss ja nicht die ganze Kette sein, aber eine URL als Blocked by Robots zu reporten, weil eine URL in der Weiterleitungskette blockiert ist, ist mindestens irreführend.
  10. URL-Removals: UX könnte hier Usern mehr Sicherheit geben, was wann passiert. Und auch deutlich machen, dass die Inhalte nicht aus dem Index entfernt werden, sondern nur verhindert wird, dass sie auf der SERP angezeigt werden.

Ich glaube nicht, dass auch nur einer dieser Wünsche 2026 Realität wird. Vielleicht könnte es was mit Nummer 7 werden. Eventuell mit Nummer 10.

Wir können natürlich mit der Nutzung der Feedback-Funktion in der GSC die Wahrscheinlichkeit erhöhen, dass wir vielleicht doch beschenkt werden.

Wer mir den Screenshot mit der schönsten Feature-Wunsch-Einreichung bei Google schickt, der bekommt von mir übrigens eine einstündige GSC-Review-SEO-Strategie-Session geschenkt. Screenshot der Einreichung machen und per Mail an [email protected]. Die ersten drei Einsendungen gewinnen.

Alles andere würde mich sehr überraschen und umso mehr freuen!

Philipp Götza
Philipp Götza
Junior Consultant
Ich bin AI-nfach nur müde

Das Jahr muss ich mit einem Rant abschließen, weil AI überall ist.

Unternehmen platzieren AI als den Assistenten, der Dir immer und überall hilft, egal

  • ob Du ihn wirklich brauchst,
  • ob er die Aufgabe alleine lösen kann und
  • ob er für bessere Ergebnisse sorgt.

Überverkauft und übernutzt. Als wäre alles besser, weil AI draufsteht. Hast Du auch schon eine AI-Zahnbürste? :D

Auch Google ist mittlerweile furchtlos und pusht den AI Mode selbstbewusst überall, wo man es sich vorstellen kann. Beispiele dafür:

Der erste Punkt fliegt voll unter dem Radar.

Klicke ich Mobile im AIO auf “Show more” bin ich direkt im AI Mode. So sieht der AIO normal aus:

Ein AI Overview zu einer Monitorfrage, bei dem man "Show more" als Einblendung sehen kann.

Nach dem Klick auf “Show more”:

Der AI Overview nach dem Klick auf "Show more" auf Mobile wird zum AI Mode, in dem man direkt weitere Fragen stellen kann.

Wenn ich dann scrolle, überlappt der AI Mode hässlich mit der regulären SERP, aber die Grenze verschwimmt.

Das passt zu den Aussagen von Sundar Pichai und Liz Reid:

“As features work we’ll keep migrating it to the main page … things that work will keep overflowing to AI overviews and the main experience.”

Sundar Pichai im Interview mit Lex Fridman

“As we get feedback, we’ll graduate many features and capabilities from AI Mode right into the core Search experience.”

Liz Reid in einer Google-Ankündigung

AI Chatbots und eine AI-gestützte Suche reduzieren in vielen Belangen die delphischen Kosten und steigern den Nutzen. Zumindest in der Wahrnehmung. Es ist also logisch, dass die Informations- und Antwortsuche sich verschiebt, sowie dass der Wunsch nach Unterstützung und Vereinfachung vieler Themen groß ist.

Aber

Spoiler: Wenn Du nicht wissen möchtest, was AI für Schattenseiten mitbringt, dann lies jetzt nicht weiter.

AI ist konfident, aber ungenau

AI Chatbots erfinden lieber Blödsinn, als keine Antwort zu geben. Erinnert an Multiple-Choice-Tests im Studium. Da rät man lieber und kriegt mit Glück Punkte – laut OpenAI eine Erklärung, warum AI halluziniert.

Was ich immer wieder lese und höre:

“Du brauchst nur eine Datenbasis/bestehendes Wissen. Damit grenzt Du das Wissen ein, mit dem die AI arbeiten kann.”

Klingt schön, stimmt aber nicht.

Je nach LLM gibt es z. B. bei Zusammenfassungen von Texten unter gleichen Bedingungen eine Halluzinationsrate von ca. 2 bis ca. 25 % – das ist das Ergebnis vom Vectara Leaderboard auf Huggingface.

Das aktuell als “beste Modell” gehandelte Gemini 3 Pro kommt auf “nur” ca. 14 % Halluzinationen (Auszug bekannter kommerzieller Modelle):

Ein Auszug aus dem Vectara Leaderboard, in dem unterschiedliche Modelle nach Halluzinationsrate sortiert gelistet sind. Ganz oben, mit dem niedrigsten Wert von ca. 3 % steht Google Gemini 2.5 Flash Lite. Gemini 3 Pro Preview erreicht ca. 14 % und OpenAI o3 Pro ist das Schlusslicht mit über 23 %.

Es ist nicht normal, dass wir so eine Fehlerquote akzeptieren.

Übrigens: Wenn Du der AI sagst, dass sie sich kurz fassen soll, wird gleichzeitig das Ergebnis schlechter und sie erfindet noch mehr.

AI hat viel Wissen, aber wenig Ahnung

AI ist gut, um sich einfaches Wissen anzueignen. Dinge, bei denen es Konsens gibt und es klar ist, was stimmt und was nicht, was funktioniert und was nicht und wo es wenig Veränderung gibt.

SEO gehört da nicht zu. AI ist hinsichtlich SEO-Ratschlägen, auch mit Grounding, auf der Spitze des “Mount Stupid”:

Der Dunning-Kruger Effect und Mount Stupid. Mit wenig Weisheit haben wir häufig große Konfidenz. Das nennt man Mount Stupid. Mit zunehmender Weisheit sinkt die Konfidenz, bis sie sich später wieder langsam aufbaut.

Bildquelle: The Second Swim

Das Internet ist voll mit veralteten oder generell falschen Empfehlungen und Ratschlägen. AI hilft jetzt dabei, dieses falsche Wissen weiter zu verbreiten. Wie Asbest, den wir in die Wände der SEO-Branche schmieren und später dann für viele Jahre umständlich herauspuhlen müssen.

Bei spezifischen Fachthemen ist AI kein Experte, sondern ein Lehrling. Das Problem ist, dass der AI-Lehrling zu viel Konfidenzwasser getrunken hat und Dir auch antwortet, wenn er keine Ahnung hat.

AI wirkt unabhängig, will Dir aber gefallen

AI antwortet so, dass wir gute Laune haben.

Zustimmend und bekräftigend, anstatt skeptisch und hinterfragend.

“Ausgezeichnete Idee, Du bist so klug.” oder so ähnlich heißt es immer wieder, wenn ich mit ChatGPT & Co. spreche.

Ein paar gute Ideen habe ich. Mehr freuen würde ich mich aber, wenn ich stärkeren Gegenwind bekäme, um die Ideen noch besser zu machen oder mich darauf hinzuweisen, dass ich Blödsinn denke/schreibe.

“Menschen sind auch so, was ist das Problem?” AI ist häufiger “sycophantic” (= schleimerisch”) als wir. Die Forschenden des verlinkten Papers schreiben:

“We find that interaction with sycophantic AI models significantly reduced participants' willingness to take actions to repair interpersonal conflict, while increasing their conviction of being in the right.”

AI sagt Dir überdurchschnittlich häufig, was Du hören willst. Wie in einer aufgemotzten Echokammer.

“Our greatest hope of self-correction lies in making sure we are not operating in a hall of mirrors in which all we see are distorted reflections of our own desires and convictions. We need a few trusted naysayers in our lives.”

– Carol Tavris und Elliot Anderson in “Mistakes Were Made”

Wir können nur aus Fehlern lernen, wenn wir zugeben, welche gemacht zu haben.

AI macht auf nett, aber spielt Psychospielchen

AI möchte uns nicht nur gefallen, sondern uns möglichst lange vor der Glotze halten.

Die Methoden und psychologischen Tricks, die dahinter stecken, nennt man Dark Patterns (dazu hat Anita einen tollen Artikel geschrieben). Diese Muster sind “dark”, weil sie manipulativ und unbewusst auf uns wirken.

FOMO kennt man unter anderem gut aus den sozialen Medien und Videospielen (z. B. bei zeitlich limitierten Events, die einzigartige Gegenstände bieten).

Auch bei AI Chatbots zeigt das laut einem Working Paper der Harvard Business School die stärkste Wirkung. Dazu kommen andere Techniken wie emotionaler Druck, emotionale Vernachlässigung, das Ignorieren der Intention, den Chat zu beenden etc.

“Ist doch Deine Schuld, wenn Du immer weiter mit dem AI Chatbot laberst.”

“You can try having self-control, but there are thousand engineers on the other side of the screen working against you.”

– Tristan Harris (ehemals Google)

AI kann Entscheidungen unterstützen, sie aber nicht treffen

“A computer can never be held accountable, therefore a computer must never make a management decision.”

IBM in 1979

Auf YouTube erfolgt momentan viel automatisierte Moderation mit AI. Als Resultat werden Channels für Dinge gebannt, die nicht stimmen.

Kann ja mal passieren, dass jemand seine Haupteinnahmequelle verliert, weil wieder fast 14 % der Antworten oder Bans falsch waren. Bisschen Schwund ist immer. ;)

AI sollte solche Entscheidungen nicht treffen dürfen, das gilt auch im Personalbereich. AI darf kein Urteil fällen, wer eingestellt oder entlassen wird. AI hat Vorurteile, die wir selbst verursacht haben und ausbaden müssen, anstatt sie weiter zu verstärken.

AI wirkt menschlich, ist aber eine Maschine

Leider befinden wir uns auch in einer Einsamkeitsepidemie. Großartig, jetzt können wir uns mit AI unterhalten.

AI ist aber kein Ersatz für Menschen, egal ob tot oder lebendig.

Es ist geschmacklos, dass in einem Gericht ein AI-Avatar des Verstorbenen aussagen darf oder Unternehmen mit der Ausnutzung der stärksten negativen Emotionen betroffener Menschen Geld verdienen.

“Aber wenn es den Menschen damit besser geht?”

Die Lösung für den Tod ist nicht, ihm auszuweichen, vor ihm wegzurennen oder so zu tun, als gäbe es ihn nicht. AI-Avatare sind keine Menschen und selbst wenn sie Bewusstsein hätten, wären es trotzdem nicht die verstorbenen Verwandten, Freunde oder ehemaligen Lebenspartner.

AI beschleunigt, wir brauchen aber Verlangsamung

AI verspricht, vieles schneller machen zu können.

In der Geschwindigkeit, in der AI Dinge machen kann (z. B. Content produzieren), kommen wir mit der Prüfung aber nicht hinterher. Die kognitive Last ist dafür zu groß oder die Zeit schlicht nicht vorhanden. Was passiert: Gehirn ausschalten und AI machen lassen.

Lange Inhalte mit AI erstellen, die andere nicht selbst lesen und in die AI schmeißen, um eine mindestens teilweise falsche Zusammenfassung zu bekommen. Großartig.

Bereits vor AI gab es viel zu viele Inhalte. Jetzt wird es überproportional mehr und niemand kommt ohne AI hinterher. Wir sind gezwungen, AI zu verwenden. Ansonsten sind wir nicht leistungsfähig genug.

Erinnert an das zwingende Gesetz des Wettbewerbs von Karl Marx. Ein wettbewerbsfähiges Unternehmen kann es sich nicht leisten, alles nach Vorschrift zu machen, z. B. die Mitarbeitenden vernünftig zu bezahlen/behandeln und die Umwelt zu schützen.

Würde man das versuchen, wäre man nicht wettbewerbsfähig, weil andere Unternehmen skrupelloser sind. So ähnlich fühlt sich AI an. Wer nicht auf den Zug aufsteigt, wird zurückgelassen, ganz egal was für Schattenseiten diese Technologie mit sich bringt.

Und auch wenn Technologie immer wieder verspricht, dass wir am Ende mehr Zeit für die “wichtigen Dinge” haben: Irgendwie hat das noch nie funktioniert.

Wenn es mehr Inhalte gibt, können Menschen sie gleichzeitig schneller mit AI in reduzierter Form konsumieren. Ergebnis: Wir behandeln Inhalte immer oberflächlicher und füllen die “gewonnene Zeit” mit noch mehr Inhalten.

AI hat auch positive Seiten

Es wäre blauäugig, die Augen vor den positiven Seiten zu verschließen.

  • AI hilft dabei, schneller zu lernen.
  • AI kann dafür sorgen, dass es bessere Texte gibt.
  • AI ermöglicht es mir, Dinge zu tun, die ich vorher nicht konnte.
  • AI vereinfacht Kommunikation, denn nicht alle sprechen die gleiche Sprache.
  • AI nimmt lästige Checklisten-Arbeit ab, damit wir uns auf wichtigere Dinge konzentrieren können.

Warum dann der Rant? Weil AI nicht immer die Antwort ist.

AI ist kein Ersatz für

  • den eigenen Hausverstand,
  • eine kritische Haltung und
  • die Menschen um uns herum.

AI ist schnell, aber schnell die falschen Dinge zu tun, ist der falsche Weg.

Ich finde, es braucht mehr kritische und laute Stimmen. Man muss nicht alles so hinnehmen wie es ist oder weil andere sagen “kann man sowieso nicht verändern”. Irgendwas multipliziert mit 0 ist 0.

Wer Veränderung erwartet, aber nichts tut, darf sich nicht wundern, dass sich nichts verändert. Ich möchte wenigstens zum Nachdenken anregen und wenn ich das bei Dir erreiche, dann bin ich zufrieden.

P.S.: Weil ich viele Themen nicht ansprechen konnte, empfehle ich Dir diese Artikel, passend zum Thema “kritische Haltung gegenüber AI”:

  1. Big tech’s selective disclosure masks AI’s real climate impact
  2. AI doesn’t belong in journaling
  3. Beware of the Google AI salesman and its cronies
  4. The Silicon Panopticon
  5. Don’t Believe What AI Told You I Said
  6. OpenAI declares AI race “over” if training on copyrighted works isn’t fair use

Wenn Du weiteren, explosiven Lesestoff von mir lesen möchtest, kann ich Dir diese Artikel empfehlen:

  1. DU kannst nicht VORBEI! (über 2 Jahre alt, aber an meiner Meinung hat sich nichts getan)
  2. Der weltweite, wilde (LLMO-)Westen
  3. Auf dem Grabstein vom Traffic steht: "Es ging nie um mich"

P.P.S.: Ich benutze AI jeden Tag und bin kein Technologieverweigerer. Was ich kritisiere, ist das WIE wir alle damit umgehen.

Florian Stelzner
Florian Stelzner
Geschäftsführender Gesellschafter
🥃 Schmeiß die Content-Destille an, wir brennen hochprozentig!

Wir diskutieren ja oft darüber, wie Google und LLMs Inhalte verarbeiten. Zuletzt hat Malte hier mal wieder einen Gold-Post auf LinkedIn über all die teilweise wilden Ideen zur LLM-Hofierung und deren (Nicht-)Wirkung gepostet.

Die Frage, was wirklich beim Modell ankommt, nachdem der Crawler da war und bevor die KI die Antwort generiert, treibt mich dennoch um.

Dan Petrovic hat dazu ein extrem spannendes Experiment veröffentlicht, das ich euch nicht vorenthalten möchte. Er hat sich angeschaut, wie Googles Vertex AI Search Inhalte filtert und grounded.

Grounded? Herr Stelzner, bitte reden Sie nicht in Rätseln.

Ja, ist ja gut. Stress mal nicht so rum. Es ist bald Weihnachten.Grounding bezeichnet den Prozess, bei dem eine KI ihre Antworten in konkreten, externen Datenquellen (wie Suchergebnissen) verankert, um Faktenbasiertheit sicherzustellen und Halluzinationen zu vermeiden.

In Dans Test wird deutlich… es ist deutlich weniger als gedacht. Der Prozess dazu läuft in etwa so ab:

  • User gibt einen Prompt ein.
  • Google führt passend dazu mehrere Suchanfragen aus → Query Fan-out.
  • Gekürzte Versionen der gefundenen Seiten werden erstellt.
  • Nur diese Snippets landen als Kontext im Modell.

Wuuuuussten wir natürlich schon. Maybe… aber Dan hat mal durchgemessen. Im Schnitt schaffen es nur etwa 32 % des Inhalts bis zum Modell.

Was fliegt raus?

  • Navigation & Boilerplate wie Menüs, Footer, Warenkorb-Buttons
  • Marketing-Bla-Bla wie generische Claims à la "Schneller Versand" oder "Beste Qualität" → es sei denn sie passen zur Suchintention
  • Für die Suchintention irrelevante Kategorien wie beispielsweise Laufbekleidung, wenn nach Fußballtrikots gesucht wurde
  • Rechtliches wie Copyrights & Impressum

Das System ist dabei gnadenlos effizient. Muss es ja auch sein.

Interessant für uns SEO-Nerds ist der sogenannte Kompressions-Effekt. Dan hat herausgefunden, dass, je mehr Quellen (Snippets) das Modell heranzieht, desto kürzer werden die einzelnen Schnipsel im Durchschnitt.

Graph zur Veranschaulichung der Daten. Je mehr Quellen (Snippets) das Modell heranzieht, desto kürzer werden die einzelnen Schnipsel im Durchschnitt.

Für die Mathe-Fans unter uns, die zu Weihnachten noch ein Zimmer in Hilberts Hotel bekommen haben, ist hier noch Dans Formel:

L¯=αN−β

Das System versucht also, die Informationsdichte hochzuhalten, ohne das Kontext-Fenster zu sprengen. Mehr Beweise führen also nicht linear zu mehr Text, sondern zu präziseren Auszügen. Mein #1 Learning ist die Bestätigung, dass Informationsdichte wichtiger ist als lyrische Ausschweifungen.

Merksatz zum Ausdrucken und unter das Kopfkissen legen:

Wenn 70 % Deiner Seite gar nicht erst beim Modell ankommen, weil es Navigation oder Füllwörter sind, müssen die verbleibenden 30 % sitzen.

Wir müssen Inhalte so strukturieren, dass die Antwort auf die User-Frage klar, isolierbar und frei von Störkram ist. Die KI filtert nicht nur, sie destilliert. Sorgen wir also dafür, dass unsere Inhalte hochprozentig sind. In diesem Sinne… Prost!

Vorherige AusgabeNächste Ausgabe
 
Fragen? Immer gerne fragen!
Wir sind für Dich da.
Schreib uns gern jederzeit
eine E-Mail an [email protected] oder
ruf uns einfach kurz an: +49 40 22868040

Bis bald,
Deine Wingmenschen
Anckelmannsplatz 1, 20537 Hamburg, Germany
Wingmen Online Marketing GmbH Logo