Wirklich wahres Wingmen SEO Wissen fĂŒr wache Webmarketer #282
Wingmen Online Marketing GmbH Logo
Lara Hornung
Lara Hornung
Werkstudentin
đŸ•Żïž SEO im Dunkeln

Jedes Jahr nehme ich mir vor, mich nicht von der frĂŒhen Dunkelheit runterziehen zu lassen und jedes Jahr scheitere ich grandios.

Kaum ist es 17 Uhr, fĂŒhlt sich alles an wie Mitternacht: Mein Biorhythmus ruft nach Decke statt Deadline und mein Laptoplicht ist plötzlich die einzige Sonne im Raum.

Dieses Jahr habe ich beschlossen: Ich weigere mich einfach, mich daran zu gewöhnen. Ich ignoriere die Dunkelheit aktiv. Mit zu viel Tee, zu hellen Lampen und der festen Überzeugung, dass Sommerzeit ein LebensgefĂŒhl, kein Kalendereintrag ist.

WÀhrend ich also versuche, das Tageslicht in meiner Kaffeetasse zu finden, haben unsere Autor:innen diese Woche ganz eigene Wege gefunden, mit NovembertrÀgheit umzugehen:

  • Jetlag-Johan weist den Weg durch die SEO-DIN-Norm wie ein flackerndes Nachtlicht,
  • Nachtschatten-Nils erhellt die Monetarisierung von ChatGPT wie Kerzenschein im Abenddunkel,
  • Polarlicht-Philipp beleuchtet fĂŒnf Dinge, die Du ĂŒber AI Readiness wissen musst,
  • Jahreszeiten-Jolle erklĂ€rt, wie Adam Gent Googles Suchindex durchleuchtet,
  • DĂ€mmerungs-Darius zeigt Dir die Macht der Metaphern.

Viel Spaß beim Lesen!

Deine Wingmenschen

Was wir gelesen haben
Johan von HĂŒlsen
Johan von HĂŒlsen
GeschĂ€ftsfĂŒhrender Gesellschafter
Da ist die SEO-DIN-Norm

Wie der Norddeutsche sagt: Din Norm ist doch een TĂŒddelkram.

Im Februar 2024 hatte es eine kleine Welle gegeben, weil 11 Unternehmen sich angeschickt hatten, mit dem DIN-Institut eine DIN-SPEC (die abgespeckte Variante einer DIN-Norm) zu schreiben. FĂŒr SEO.

Man hatte angekĂŒndigt, ĂŒber den Newsletter transparent ĂŒber den Prozess zu informieren. Am 22.10.2025 habe ich dann die erste Mail ĂŒber den Newsletter bekommen:

Betreff: Pionierstandard fĂŒr SEO: Veröffentlichung der DIN SPEC 33461 zur QualitĂ€tssicherung in der Suchmaschinenoptimierung

Der SPEC-Prozess ist also abgeschlossen. Einige Informationen auf https://din-spec-33461.de/

Transparente Information sieht anders aus.

Screenshot einer E-Mail-OberflÀche mit dem Suchbegriff 'from:din-spec-33461.de' und zwei E-Mails im Posteingang.

Ich habe keine Kosten und MĂŒhen gescheut, und Darius hat mir die SPEC einmal fĂŒr 0€ heruntergeladen.

Und ich musste die SPEC erst mal beiseitelegen, denn schon die Begriffsdefinition hat mich abgehÀngt:

  • Eine Webseite wird als Teil einer Website definiert.
  • Eine Website ist als Sammlung von rechtlich und/oder inhaltlich zusammenhĂ€ngenden Webseiten, die als Einheit verwaltet werden und ĂŒber die gleiche URL zu erreichen sind.
  • Eine URL wiederum ist ein Universal Resource Locator Instrument zur Identifizierung von Ressourcen wie Websites im Internet, wobei die Adresse der Ressource und das benutzte Zugriffsprotokoll angegeben werden.

Das widerspricht massiv meinem bisherigen VerstÀndnis.

Denn bisher dachte ich, dass eine Webseite durch eine URL adressiert wird. Die URL enthÀlt wiederum eine (Sub-)Domain, die eine Sammlung von Webseiten ist und gelegentlich als Website bezeichnet wird.

Damit widerspricht die SPEC zwar etablierten Webstandards, aber vielleicht ist das ja nicht so schlimm, wie wir seit XKCD 927 wissen:

Schwarz-weiße Comic-Strichzeichnung mit drei Panels: Erstes Panel zeigt Text 'Situation: There are 14 competing standards.' Zweites Panel zeigt zwei StrichmĂ€nnchen, eines sagt '14?! Ridiculous! We need to develop one universal standard that covers everyone's use cases.' Das andere antwortet 'Yeah!'. Drittes Panel zeigt Text 'Soon: Situation: There are 15 competing standards.'

Es werden auch Metriken definiert: als quantitative Daten, die eine Vorstufe von KPIs sein können. Dass es Key Performance Indicator nur im Singular geben sollte, habe ich neulich schon geschrieben.

Die Definitionen der SPEC und ich werden keine Freunde. Nachdem ich das emotional abhaken konnte, habe ich den Rest der Definitionen ĂŒbersprungen und mir die weiteren Punkte angesehen.

Auch wenn es schwergefallen ist, denn:

  • Umsatz wird als KPI-Beispiel gelistet;
  • bei Traffic werden Klicks, Besucher und Sessions durcheinandergewĂŒrfelt;
  • Customer sind nur Menschen, die kaufen (Publisher und Affiliates sehen das anders);
  • Strukturierte Daten sind separat von Metadaten, treffen aber explizit auf die Definition von Metadaten zu;
  • KI-Suchen sind nicht Teil von Suchmaschinen;
  • Klicks finden nur auf Suchergebnisseiten, nicht auf Webseiten statt


Wie findet also SEO statt?

  1. GeschÀftsmodell verstehen,
  2. KPI vereinbaren,
  3. Messwerte vereinbaren,
  4. Ressourcenlage/Projektumfang definieren. Dabei ist ein Projekt wohl immer gekennzeichnet durch 5 Phasen: Status-Quo-Ermittlung, Maßnahmen-Priorisierung, zeitliche Taktung, Umsetzung, Erfolgsmessung,
  5. Konkurrenzanalyse (Hier werden 3 Methoden zur Definition von Konkurrenten zugelassen. Dabei wird unter anderem der nicht definierte Begriff der DomÀne verwendet),
  6. Aufwandsermittlung. Dabei mĂŒssen AufwĂ€nde ermittelt werden. Auch fĂŒr Leistungen, die vielleicht gar nicht notwendig sind. Außerdem sollen Pufferzeiten eingeplant werden und man darf von der Bezeichnung(!) der Leistungen abweichen, weil SEO ein dynamisches Feld ist

An dieser Stelle zeigt sich: Der Prozess ist zu schematisch fĂŒr die Praxis.

Es wird ein starrer Prozess definiert, der fĂŒr alle Projekte passen soll. Oder nur fĂŒr bestimmte, aber das steht dann nicht da. Gleichzeitig werden Begriffe verwendet, die nicht in den Begriffsdefinitionen stehen (sowas macht mich wahnsinnig und jeden Standard unbrauchbar, weil er sich nicht mal an die eigenen Standards hĂ€lt) und obwohl die Sprache technisch genau wirken soll, ist alles am Ende unprĂ€zise.

Ich dachte, das Projekt sei zum Scheitern verurteilt, weil SEO individuell ist und es daher schwer ist, einen allgemeinen Prozess zu definieren. Aber das Dokument scheitert schon an der Definition der Begriffe und dem technischen Aufbau des Dokuments.

Aber fĂŒr Dich beiße ich mich durch:

Wer nach der SPEC arbeitet, der:

  • Muss Suchbegriffe immer der Customer Journey zuordnen – in meinen Projekten verzichte ich ja meist auf die Definition von Keywords, weil das oft den Blick viel zu sehr einengt.
  • Muss fĂŒr Suchbegriffe immer die Konkurrenz analysieren (inkl. Linkprofil) – ich mag es ja, wenn man auf eigene Optimierungsmöglichkeiten mehr schaut, als die ganze Zeit zu verschwenden, um die Konkurrenz zu analysieren und zu kopieren.
  • Analysiert technische HĂŒrden (Indexsteuerung, Duplicate Content, Seitenladezeit, interne Verlinkung) – abgesehen davon, dass die Probleme nicht nur technisch sein mĂŒssen, gibt es noch viel mehr Punkte, beispielsweise die HTML-Struktur.
  • Analysiert die Inhalte, indem man Templates (nicht die Inhalte, die auf diesen Templates genutzt werden) fĂŒr Kategorieseiten, Produktdetailseiten, Landingpages und Informationsseiten analysiert – irrelevante Seiten wie die Startseite, PDFs und vieles andere können wir also nach dieser Liste ignorieren.
  • Ermittlung und Bewertung interner Verlinkung,
  • Optimiert bestehende Inhalte,
    • Zuweisung von Suchbegriffen,
    • EntschĂ€rfung von Kannibalisierung,
    • EntschĂ€rfung von inhaltlicher Dopplung
    • Umsortierung der Inhalte in Templates und Folder,
    • Der Anordnung von Informationsteilen, Sektionen und Teilbereichen innerhalb einzelner URLs. – ich erinnere mich kurz an die Definition von URL und vermute daher, es geht hier um die Anordnung der Folder innerhalb der URL-Struktur. Steht aber so nicht hier.
    • Anzeige und Darstellung von Main Content, Secondary Content und Werbung,
    • HTML-Gliederung und Strukturierte Daten,
    • QualitĂ€t der Inhalte,
    • Match mit Search Intent,
  • Ermittelt fehlende, noch zu produzierende Inhalte,
  • Analysiert ausgehende externe Links.

đŸŒŹïž Ich mache nochmal ne Pause mit AtemĂŒbungen đŸŒŹïž

Es folgen noch Hinweise, wie miteinander zu kommunizieren ist.

Aber weiter komme ich auch wirklich nicht strukturiert. Hier meine grĂ¶ĂŸten Lowlights:

  • Es wird Crawling beschrieben, ohne JavaScript und Rendering zu erwĂ€hnen.
  • Es gibt keine Definition, wer an der Seite rumfummelt. SEO oder Auftraggeber. Das ist an sich okay. Aber wenn in den Raum gestellt wird, dass der SEO an der Seite rumfummelt, dann können Backups keine optionale Zusatzleistung sein (ist am Anfang als Beispiel genannt).
  • Offpage bekommt mehr Raum als die Erstellung von Inhalten. Gleichzeitig wird auf die Überwachung der Links mittels „Analyse externer Verweise“ aus einem vorigen Abschnitt verwiesen. Externe Verweise sind aber in der Definition ausgehende Links einer Seite. Nicht Backlinks. Die beschriebenen Leistungen passen nicht mit den Definitionen zusammen.
  • Und ganz wichtig ist das umfangreiche Erstellen von schriftlichen Reports, damit man viel Zeit mit Auswertung und wenig mit Verbessern verbringt (das steht da so nicht. Das ist meine polemische ErgĂ€nzung)

Ich hatte gedacht, dass ich schlimme inhaltliche Kritik an der SPEC haben wĂŒrde:

  • Weil SEO so individuell ist, dass es kaum möglich ist, allgemeingĂŒltige Standards zu definieren,
  • Weil ein grĂ¶ĂŸerer Teil der Ersteller naturgemĂ€ĂŸ mit einer sehr operativen Kleinprojekte-Brille auf den Standard schauen wird. Aber gerade die kleinsten Unternehmen kaum Ressourcen haben, um sich mit dem Standard zu beschĂ€ftigen,
  • Weil ich befĂŒrchtet habe, dass es schlimmes Linkbuilding wird.

Aber es ist ganz anders gekommen:

  • Linkbuilding ist zwar ein großer Abschnitt, aber es wird organisches Linkbuilding statt Kauf betont,
  • Ich kann mich mit den Inhalten gar nicht wirklich auseinandersetzen, weil die Formalia nicht passen. Die Begriffe werden teilweise falsch definiert. Dann im Standard anders verwendet, als sie eingangs definiert worden sind,
  • Das Dokument ist eine merklich kollaborative Arbeit. Schreibstil und Aufbau sind teilweise komplett unterschiedlich. Teilweise wird der Sinn der Maßnahmen erklĂ€rt, teilweise nur die Maßnahme erwĂ€hnt.

Ich hĂ€tte erwartet, dass die DIN sich darum kĂŒmmert und solche Dinge glattbĂŒgelt. Schließlich zahlen die mitschreibenden Unternehmen ja eine EintrittsgebĂŒhr.

Was ist, wie ich es erwartet hÀtte, ist der verengte Blick auf SEO. Manche Dinge werden zur Pflicht erklÀrt, aber andere Themen komplett ausgeklammert. Und allein schon durch das Wachstum von Gemini, AI Overviews, AI Mode und ChatGPT ist die SPEC schon jetzt völlig veraltet.

Irritierend finde ich auch:

  • Die SPEC definiert nicht, fĂŒr wen sie geschrieben ist – Beratung, AusfĂŒhrung oder Audit. Sie definiert die Zusammenarbeit zwischen Agentur und Unternehmen. Auf der Website wird angekĂŒndigt, dass sie auch fĂŒr Inhouse gelten können soll. Aber die Punkte von der Website finde ich kaum im PDF wieder. Ohne eindeutigen Adressaten kann es kein QualitĂ€tsstandard sein.
  • Die SPEC vermischt Arbeitsprozess (wie man SEO macht) mit Leistungsbeschreibung (was getan wird) und QualitĂ€tskriterien (wann es gut ist). Der Text will gleichzeitig Anleitung, Angebotsvorlage und PrĂŒfkatalog sein und wird keinem Anspruch gerecht.
  • Es wird zwar angeregt, KPIs zu definieren, aber um die Operationalisierung von QualitĂ€t in der Suchmaschinenoptimierung hat man sich gedrĂŒckt. Es gibt keine PrĂŒfmethoden, keine Kriterien, keine Auditmechanismen. Und das, obwohl im Titel QualitĂ€tssicherung steht. DafĂŒr fehlt viel.
  • Es wird darauf verzichtet, auf andere Standards zu verweisen. Weder Webstandards wie RFCs werden genutzt (dann wĂ€ren einem vielleicht auch einige WidersprĂŒche aufgefallen), noch auf die WCAG-Richtlinien zur Barrierefreiheit oder die Webmaster Guidelines von Bing und Google verwiesen. Es muss ja nicht gleich die ISO 9001 (QualitĂ€tsmanagement) sein. Aber ich hĂ€tte mir eine Integration in die bestehende Standardlandschaft gewĂŒnscht.
  • Die SPEC ist meinungsgetrieben, nicht evidenzbasiert. Es gibt nicht nur keine Verweise auf Standards, sondern auch keinerlei Quellenbelege fĂŒr Behauptungen. So ist sie keine Norm, sondern ein Positionspapier.
  • Die SPEC ignoriert ethische Mindeststandards, obwohl SEO lĂ€ngst datengetrieben und KI-gestĂŒtzt ist. DatenschutzerwĂ€gungen (Tracking), Transparenzanforderungen gegenĂŒber dem Kunden, Umgang mit KI-generierten Inhalten, Umgang mit unseriösen SEO-Praktiken. All das habe ich nicht gesehen.
  • Die SPEC verfehlt den Sprachstandard einer Norm. Sie liest sich wie ein Whitepaper, nicht wie ein technisches Regelwerk. Von RFCs ist man eine klare Unterscheidung von „kann“, „sollte“ und „muss“ gewohnt. Hier wird vieles austauschbar und unscharf verwendet.
  • Die Rollenverteilung und Verantwortlichkeiten bleiben meistens sehr diffus: Ohne klare Rollen und Verantwortlichkeiten ist aber jede Prozessbeschreibung wertlos.
  • In der SPEC steht nicht, wie sie fortgeschrieben oder ĂŒberprĂŒft werden soll. Ein Revisionsmechanismus fehlt. Damit ist unklar, wie der Standard auf technische Entwicklungen reagieren soll.
  • Die SPEC beansprucht (implizit) branchenweiten Konsens und dafĂŒr reprĂ€sentativ zu sein. Zumindest im Subtext: „Diese DIN SPEC wurde im Konsens von Experten aus Unternehmen, Agenturen und Institutionen der SEO-Branche erarbeitet.“ & Mit der DIN SPEC 33461 liegt erstmals ein einheitlicher Standard fĂŒr die QualitĂ€tssicherung in der SEO vor. – dieser Standard ist aber mitnichten reprĂ€sentativ. Meiner (aus der sehr weiten Entfernung getroffenen) EinschĂ€tzung nach noch nicht mal fĂŒr alle Unternehmen, die an der Gestaltung mitgewirkt haben.

Laut DIN-Regelwerk sind SPECs keine Normen, sondern Schnellverfahren ohne öffentliche Einspruchsphase. Umso irritierender ist der Anspruch, hier einen „einheitlichen Standard“ zu formulieren.

Schade um die Zeit und Energie, die da rein geflossen ist.

Aber vielleicht hilft die SPEC immerhin, zu zeigen, wie schwierig Standardisierung im SEO wirklich ist.

Nils Warnick
Nils Warnick
Consultant
Hey ChatGPT, wie sollte OpenAI ChatGPT monetarisieren?

Mein Kollege Florian Hannemann hatte vor rund einem Jahr bereits ĂŒber die Wirtschaftlichkeitsprobleme bei OpenAI berichtet. Eigentlich wollte ich hier die Antwort von ChatGPT prĂ€sentieren; die war mir dann doch etwas zu ausufernd. Daher bin ich umgestiegen auf die aus meiner Sicht spitzer formulierte Frage: Kann ChatGPT ohne anzeigenbasierte Einnahmen ĂŒberhaupt profitabel sein? Hier wurde ich von ChatGPT-5 ebenfalls hinsichtlich einer kurzen Antwort enttĂ€uscht; das hĂ€tte ich allerdings im Prompt auch formulieren können. Daher die aus meiner Sicht salienten Punkte:

“Die kurze Antwort ist: Ja, aber nur unter bestimmten Bedingungen. [...] Ohne massive Kostensenkung ist der Break-even nicht erreichbar. [...] ChatGPT kann profitabel werden – auch ohne Werbung –, wenn es gelingt, Kosten zu senken und B2B-/Abo-Einnahmen stark auszubauen.”

Angenommen wird vom eigenen Bot ein Verlust von rund 2 Milliarden $ jĂ€hrlich. Davon ausgehend kommen wir auf eine Halbierung der Kosten oder eine Verdopplung des Umsatzes pro Nutzer, damit man ohne anzeigenbasierte Werbung einen Break-Even erreicht. Ob das realistisch ist, steht in den Sternen. Möglicherweise hat deswegen OpenAI CEO Sam Altman die Stimmung bezĂŒglich staatlicher UnterstĂŒtzung getestet.

In einem weiteren Interview letzte Woche beantwortete er Fragen zur möglichen Monetarisierung von ChatGPT. Besonders interessant ist dabei folgender Austausch zwischen Altman und dem Interviewer Tyler Cowen.

Altman: “Again, there’s a kind of ad that I think would be really bad, like the one we talked about. There are kinds of ads that I think would be very good or pretty good to do. I expect it’s something we’ll try at some point. I do not think it is our biggest revenue opportunity.”

Cowen: “What will the ad look like on the page?”

Altman: “I have no idea. You asked like a question about productivity earlier. I’m really good about not doing the things I don’t want to do.”

Die “schlechten” Ads, die von Altman benannt werden, sind solche, wie sie von Google genutzt werden. Er beklagt dabei, dass bezahlt werden kann, um ein schlechteres Ergebnis vor ein besseres zu setzen. Außerdem fĂŒhrt er an, dass die Ads von schlechten Suchergebnissen abhĂ€ngen.

All diese Argumente sprechen laut Altman dagegen, solche Anzeigen zuzulassen. Wie mein Kollege Philipp bereits schrieb, befindet er sich aber schon seit LÀngerem auf einer Sliding Scale, was die Ads betrifft. Zur Frage, wie man UmsÀtze generieren möchte, hat er diesmal den Ball sehr flach gehalten.

“There is a question of, should, many people have asked, should OpenAI do ChatGPT at all? Why don’t you just go build AGI? Why don’t you go discover a cure for every disease, nuclear fusion, cheap rockets, the whole thing, and just license that technology? And it is not an unfair question because I believe that is the stuff that we will do that will be most important and make the most money eventually”

In Zukunft verdient OpenAI also einfach an Lizenzen und Patenten fĂŒr Kernfusion, gĂŒnstige Raketen und die Heilung jeder Krankheit. Was sonst? Zumindest sagt Sam Altman, dass er glaubt, diese Dinge werden am wichtigsten sein und irgendwann am meisten Geld einbringen.

Da liegt vermutlich die Crux der gesamten Sache. Abgesehen von der Frage, ob ChatGPT diese Dinge wirklich irgendwann können wird, muss man schauen, ob die Investorenkohle nicht vorher schon komplett abgefackelt wird, wonach es derzeit fĂŒr mich aussieht. Gerade erst berichtete Edward Zitron, dass OpenAI noch mehr Geld verbrannt hat, als bisher bekannt war.

Stand jetzt sieht es fĂŒr mich zusammengefasst so aus:

  • Es ist immer noch umstritten, wie stark die Reasoning-FĂ€higkeiten der Modelle sind.
  • Langsam gehen uns die Trainingsdaten aus.
  • Es verdient noch keiner wirklich Geld mit seinen Tools und
  • man ist auch noch sehr weit weg davon, das zu tun.

Wenn ich kurz davor wĂ€re, AGI zu erfinden, mĂŒsste ich auch keine KI-Sexchatbots ins Rennen schicken. Nun möchte ich niemandem unterstellen, in einem öffentlichen Auftritt nicht die ganze Wahrheit zu sagen. Aber in dieser Lage wĂŒrde ich mich zumindest dazu hinreißen lassen, Werbung in ChatGPT als ganz attraktiv zu bezeichnen. Andere haben hier weniger Befindlichkeiten als ich, denn der OpenAI-MitgrĂŒnder Ilya Sutskever sagte ĂŒber ihn, Altman “exhibits a consistent pattern of lying, undermining his execs, and pitting his execs against one another.”

Insofern ist zumindest Vorsicht geboten, wenn es um seine Aussagen geht. Daher wĂŒrde ich auch weiterhin nicht ausschließen, dass Ads in ChatGPT auftauchen könnten. Google wollte auch nie böse sein. Am Ende will aber jeder Geld verdienen. Die Frage ist, ob OpenAI es sich noch lange leisten kann, auf Anzeigen zu verzichten. Ich wĂŒrde nicht davon ausgehen.

Philipp Götza
Philipp Götza
Junior Consultant
5 Dinge, die Du ĂŒber AI Readiness wissen musst

Anstatt in der nicht enden wollenden Diskussion, ob die Optimierung fĂŒr AI Visibility einen eigenen Namen braucht, zu ersticken, prĂŒfe ich fĂŒr meine Kund*innen lieber die AI Readiness und Visibility ihrer Domains und passe mich bei der Namensgebung an.

Und weil AI gerade ĂŒberall ist und alle NĂ€hte sprengt, teile ich 5 Insights aus meiner letzten AI Readiness Analyse mit Dir.

1. Wenig Zitierungen != wenig sichtbar

Vermutlich ist es eine Krankheit der SEO: Wenn ich nicht “ranke”, bin ich unsichtbar. Das stimmt in Zusammenhang mit AI Chatbots aber aus unterschiedlichen GrĂŒnden nicht.

  1. AI Chatbots erwÀhnen (D)eine Marke, wenn sie andere Domains und nicht Deine Domain zitieren
  2. AI Chatbots erwÀhnen (D)eine Marke, auch wenn sie gar keine Quellen im Grounding suchen

Zitierungen < ErwĂ€hnungen, wenn ich Hersteller bzw. die Marke bin. AI Chatbots sind nicht dazu gebaut, Traffic zu senden. Das ist ein Nebenprodukt, und die CTR ist gering (laut Tollbit in Q2 2025 weiterhin unter 1% – kommt aber natĂŒrlich auf den Prompt an).

Eine Zitierung ist eine Fußnote, fast unsichtbar. Eine ErwĂ€hnung ist eine prominente Hervorhebung, hoch sichtbar:

Eine beispielhafte Darstellung fĂŒr einen Chat mit dem Prompt "was ist die beste kaffeemaschine". Es werden 3 Marken genannt und jeweils mit Quellenhinweisen unterfĂŒttert. Hervorgehoben ist, wie prĂ€sent die Marken und wie wenig sichtbar die Quellenhinweise sind.

Matt hat ĂŒber eine AirOps-Studie berichtet, laut der 85% aller Brand Mentions von Third-Party-Domains kommen. Also viel Beeinflussung von “außerhalb”.

In meiner Analyse habe ich festgestellt, dass die untersuchte Domain in “nur” 5% (!) der Antworten zitiert wird, die Marke war aber in 28-57% (je nach Thema) der Prompts sichtbar.

Gleichzeitig war die Domain unter dem Wettbewerb die am hĂ€ufigsten zitierte Quelle und auf Platz 3 aller Domains (davor nur eine große Vergleichsplattform und ein bekannter Affiliate).

Ist also gar nicht so schlimm, dass es “weniger” Zitierungen gab, weil die Beeinflussung in der Antwort durch die Markennennung stattfindet.

Das Ergebnis: Menschen geben die Marke bei Google ein und das Brand-Suchvolumen steigt (vermutlich). Am wichtigsten wÀren mir daher ErwÀhnungen und nicht zitierte URLs.

2. Durchschnitte sind wie immer gefÀhrlich

Die Werte von 28-57% ergeben sich aus unterschiedlichen Themen und Chatbots, die wir analysiert haben. Im Durchschnitt waren es leicht unter 50%. CoPilot hat z. B. weniger Marken pro Antwort erwÀhnt, weniger Domains zitiert und auch der Wettbewerb hatte deutlich geringere Sichtbarkeitswerte.

Im Durchschnitt wĂŒrde ich das nicht erkennen.

Was man außerdem hĂ€ufig beobachten kann: AI Chatbots zitieren zum Prompt passende Inhalte. Wenn jemand nach dem besten” oder etwas “gĂŒnstigem” sucht, macht es Sinn, dass hĂ€ufig Vergleiche vorkommen. Teilweise ist das dem Ranking der organischen Suche geschuldet.

In dem gewĂ€hlten Promptset waren z. B. mehr als ⅓ der Zitierungen Vergleichsinhalte.

Klingt viel, ist es auch. Ich habe tiefer gegraben und mir fiel auf, wie stark sich das pro AI Chatbot unterscheidet:

Ein Diagramm, das den relativen Anteil von Vergleichsinhalten nach Engine zeigt. Es fÀllt auf, dass CoPilot einen mehr als doppelt so hohen Anteil (82.80%) als der Durchschnitt (38.56%) hat.

CoPilot zeigte ein deutliches Übergewicht dieser Inhalte. WĂ€re dieser AI Chatbot fĂŒr mich wichtig, gĂ€be es mehr Druck, Teil dieser Inhalte zu sein, als bei den anderen Plattformen.

Wie sichtbar ich bin oder wie hÀufig ich zitiert werde, hÀngt oft mit der Funnel-Stufe zusammen, wie XFunnel bereits im Februar 2025 analysiert hat (die Studie flog deutlich unter dem Radar, finde ich):

Ein gestapeltes Balkendiagramm von XFunnel, in dem sie die Anzahl der Zitierungen pro Domain-Typ zeigen in der Customer Journey. Je weiter jemand in der Customer Journey voranschreitet, desto grĂ¶ĂŸer ist der eigene Anteil an Zitierungen.

Je nĂ€her jemand an der Conversion ist, desto grĂ¶ĂŸer wird der eigene Domain-Anteil in den Zitierungen.

3. Keine große Spur von Reddit

Reddit ist ĂŒberall, so sagt man immer. Es stimmt, dass Reddit in den SERPs (auch durch automatische Übersetzungen) viel Platz einnimmt. In diesem Projekt hat es Reddit aber nicht einmal unter die Top-200 der am meisten zitierten Domains geschafft.

In anderen Projekten fiel mir auf, dass ChatGPT z. B. Reddit auch bei deutschsprachigen Prompts zitiert, weil es einen englischen Query fan-out gab.

Hier gilt wieder: Nur weil es im Durchschnitt so ist (und dann wieder nicht), dass Reddit (k)eine große Rolle spielt, muss das nicht fĂŒr Deine Branche, Deine Domain und Deine Prompts gelten. Ich wĂŒrde mir trotzdem anschauen, wie andere ĂŒber mich und meine Marke auf Reddit sprechen (siehe Punkt 5).

Wenn Dich das bei Deiner Marke interessiert, probiere den F5Bot aus. Ich wĂŒrde es mit Google Alerts fĂŒr Reddit (und andere Foren) vergleichen. FĂŒr einen kostenfreien ersten Blick reicht das auf jeden Fall.

4. AI Chatbots sind nicht alles

Was ich nicht mehr hören kann “darĂŒber kommt so wenig Traffic”. Über die Socials kommt auch wenig und gleichzeitig sind wir bemĂŒht, dort prĂ€sent und sichtbar zu sein. Es geht um Beeinflussung. Daher erzĂ€hle ich Dir jetzt nicht, wie viel mehr Traffic ĂŒber Google & Co. kommt.

Der Vergleich ist Äpfel mit Birnen und verfehlt das Ziel (was nicht heißen soll, dass es egal ist, wie viel Traffic ĂŒber AI Chatbots kommt).

Es gibt immer mehr agentische Browser. Unter anderem:

  • ChatGPT Atlas
  • Perplexity Comet
  • Edge
  • Dia
  • Chrome (Google testet bereits seit langer Zeit)

Atlas und Comet verwenden ARIA, um die Seite zu nutzen. Dass Barrierefreiheit fĂŒr Menschen mit EinschrĂ€nkungen wichtig (+ fĂŒr alle hilfreich) und (inzwischen) gesetzlich vorgeschrieben ist, scheint nicht zu reichen. SpĂ€testens jetzt gibt es aber ein weiteres Argument, sich mit dem Thema zu befassen.

“Ist meine Website fĂŒr agentische Nutzung tauglich?” Das ist die goldene Frage. Was uns immer wieder auffĂ€llt: Probleme gibt es hĂ€ufig bei Formularfeldern, weil diese stiefmĂŒtterlich umgesetzt sind. WĂ€re doof, wenn sich AI-Agenten daran aufhĂ€ngen und die Conversion verhindert wird.

P.S. Sandra gibt auf der SMX dazu einen Workshop, in dem sie Dir alles Wichtige erzÀhlt, um Deine Barrierefreiheitsprobleme in den Griff zu kriegen.

P.P.S. Agentische Browser bergen viele Sicherheitsrisiken und Kinderkrankheiten, egal ob Sam Altman und die anderen AI Bros etwas anderes behaupten. Lieber vorsichtig bei der Nutzung sein.

5. Vertrauen und Reputation entscheiden ĂŒber Empfehlungen und Entscheidungen

Google hebt in EEAT das T fĂŒr Trust in der grafischen Darstellung der Search Quality Rater Guidelines hervor und betont, wie wichtig Vertrauen ist:

Das EEAT-Konzept von Google in einer Visualisierung aus den Search Quality Rater Guidelines. 3 Kreise liegen im Hintergrund teilweise ĂŒbereinander (Authoritativeness, Expertise und Experience). Ein Kreis (Trust) ist im Vordergrund und dadurch hervorgehoben.

Vertrauen ist die Basis von Beziehungen – unter Menschen und mit Marken.

Was AI Chatbots ĂŒber Dich sagen, hĂ€ngt nicht nur davon ab, wie Du ĂŒber Dich sprichst. Es zĂ€hlt vor allem, wie andere ĂŒber Dich sprechen. Vertrauen entsteht unter anderem, wenn das kommunizierte Selbst- und Fremdbild ĂŒbereinstimmen.

Da sich AI Chatbots auf Suchergebnisse verlassen, kommen hier Quellen wie TrustPilot, TrustedShops und im Shopping-Kontext auch Idealo und Geizhals zum Tragen, wo Bewertungen zu finden sind.

Ob man Dir vertraut und in Deinem Shop kauft, hÀngt also von Deiner Reputation ab. Robert Greene hat es in 48 Laws of Power schön formuliert:

“Do not leave your reputation to chance or gossip; it is your life's artwork, and you must craft it, hone it, and display it with the care of an artist.”

Reputation Management ist oft eine eigene Disziplin im Unternehmen, genau wie Brand Management.

Wenn es bei Dir ein Reputationsproblem gibt, wĂ€re es jetzt 5 vor 12, mit allen an einem Tisch zu sitzen und zu ĂŒberlegen, wie Ihr dieses Feuer löschen könnt.

Turbozusammenfassung und abschließende Gedanken

  1. ErwÀhnungen > Zitierungen
  2. Gucke niemals nur auf Durchschnitte
  3. Reddit ist nicht immer ĂŒberall
  4. AI Agents und Browser nicht vergessen
  5. Vertrauen und Reputation > alles andere

Was AI Readiness konkret bedeutet, hat keine einheitliche Definition. Wir schauen uns gerne möglichst viel an, z. B.

  • die technische Grundlage, um potenzielle Sichtbarkeitsblocker zu identifizieren,
  • die Aufbereitung der Inhalte, um Inhalte zu liefern, die Menschen und Maschinen lieben,
  • die (in)direkte Wettbewerbssituation, um zu wissen, wo wir im Vergleich stehen und
  • diskutieren Implikationen fĂŒr das GeschĂ€ftsmodell, denn es geht bei AI nicht nur um das Hier und Jetzt.

Wenn Dich auch interessiert, wie gut Du fĂŒr AI aufgestellt bist, melde Dich gerne bei uns oder direkt bei mir. Ich schaue mir gerne Deine Domain an!

Wenn Du mehr zu AI von mir lesen magst, findest Du hier weiteren Lesestoff:

  1. Warum ich weiterhin Content erstellen wĂŒrde, auch wenn KI ihn auffrisst
  2. Auf dem Grabstein vom Traffic steht: "Es ging nie um mich"
  3. 11 Dinge, die Du ĂŒber AI Overviews und den AI Mode noch nicht wusstest
Jolle Lahr-Eigen
Jolle Lahr-Eigen
Consultant
Adam Gent erklĂ€rt, “Wie Googles Such-Index funktioniert”

Auf der Brighton SEO im Oktober hielt Adam Gent einen Vortrag zum Thema “How Google’s Search Index Works”. Den habe ich nur ungern verpasst. Aber zum GlĂŒck profitieren wir alle von den veröffentlichten Slides.

Mit seinem Projekt Indexing Insight nimmt Adam den Indexing-Report der Search Console und die URL Inspection API von Google genau in den Blick. Wie Johan hier und Adam dort beschreibt, kommt er zu ganz Àhnlichen Erkenntnissen wie wir bei Wingmen:

Screenshot vom Artikel mit dem Zitat: "Side note: The 130 day indexing rule isn’t a new idea. A similar rule was identified by Jolle Lahr-Eigen and Behrend v. HĂŒlsen who found that Googlebot had a 129 days cut off in its crawling behavior in a customer project in January 2024."

Einige der fĂŒr uns spannendsten Erkenntnisse der letzten Jahre:

  • Der Google Index ist nicht unendlich groß. Das Limit von 400 Milliarden Dokumenten ist in Relation zum “gesamten Internet” sogar recht ĂŒberschaubar. Das macht Indexierung zum Nullsummenspiel.
  • Indexierte Dokumente können, unabhĂ€ngig von Sanktionen (Penalties/Manual Actions), die Google fĂŒr den VerstĂ¶ĂŸe gegen seine Richtlinien verhĂ€ngt, wieder aus dem Index fliegen.
  • Entscheidender Faktor dabei ist die QualitĂ€t. Wenn ein besseres Dokument zum Bestand dazukommt, muss ein schlechteres gehen. Wie gesagt: Nullsummenspiel


Die zentralen Botschaften von Adam in KĂŒrze

Slide 79 ĂŒbersetzt:

  1. Der Seiten-Indexierungsbericht zeigt alle verarbeiteten Inhalte an
  2. „Indexiert“ bedeutet, dass die URL in der Suche erscheinen kann
  3. SeitenqualitĂ€t ist ein Hauptgrund dafĂŒr, dass Seiten entfernt werden
  4. Google verwendet die SeitenqualitÀt, um seinen Index zu verwalten
  5. QualitĂ€t wird fĂŒr die Crawling-Priorisierung von Seiten verwendet

Googles Indexing-Datenbanken umfassen mehr als der öffentliche Google Index

Denn Google speichert auch Informationen zu Dokumenten weg, die es mal verarbeitet, sich aber gegen eine Indexierung entschieden hat (Slide 11). Das ist das, was unsere Neologismus-Freunde drĂŒben bei Jaeckert O’Daniel den “Grauen Index” getauft haben (Slide 13).

Nicht ohne Grund gibt der Screaming Frog in der Spalte “Indexability” an, ob eine URL indexierbar ist oder nicht. Wir erfahren aber – ohne Anschluss an die Indexing API – nichts darĂŒber, ob die URL tatsĂ€chlich indexiert und in der Google-Suche auffindbar ist. “Eligible” vs. Not-eligible to be served on Google” ist hier die Frage.

QualitĂ€t (vs. Spam) ist der entscheidende Faktor fĂŒr

  • die Aufnahme in den oder den Ausschluss aus dem öffentlichen Google Index
  • die Crawl-Rate, in der Googlebot ein Dokument besucht

Wie misst Google gute QualitÀt? (Slide 54)

  • Anhand des Inhalts selbst (Vector Embeddings)
  • Links
  • User Signals wie Clicks

“Quality and popularity signals, for instance, help Google determine how frequently to crawl web pages to ensure the index contains the freshest web content” DoJ vs Google Dokument 1436 S. 142

”So you want an index of sort of the useful parts of the web that would help users.” Ex-Google VP of Search, Gerichtsdokument 974 S. 25

“Google’s systems identify around 40 billion spam pages each day,” Google-Advokat Gary Illyes auf der Search Central Live Asia Pacific 2025

Zu wissen, welche URLs Spam sind und wie man Spam erkennt, ist ein riesiger Vorteil, den sich Google ĂŒber die Jahrzehnte aufgebaut hat. LLM-Chatbots stehen im Vergleich dazu oft noch mit runtergelassenen Hosen da, wenn sie Bestenlisten blauĂ€ugig wiedergeben, bei denen sich irgendjemand praktischerweise selbst auf Platz 1 gesetzt hat.

“Insgesamt ist Google ja keine Suchmaschine, sondern eine Spamfilter-Maschine.” Cleo im Wingmen-Newsletter

Im Antitrust-Trial des DoJ entschied Richter Amit Mehta daher als eine Abhilfe zur missbrauchten Monopolstellung Googles, dass der Suchgigant einmalig Spam-Scores mit Wettbewerbern teilen muss, damit diese eine Chance haben, mit Google zu konkurrieren. Denn so können sie das Netz effizienter crawlen und sich selbst einen hochwertigen Index aufbauen:

“The spam score will allow rivals to avoid crawling web pages of low value and focus only on those with helpful content” Richter Amit Mehta im Gerichtsdokument 1436 S. 149

UnschÀrfen im Indexing Report der Search Console

Slide 26:

Adams Folie "Filter 3: Page Quality" mit dem GSC-Report "Why pages aren't indexed" und der Liste "Crawled – currently not indexed", "Discovered – currently not indexed" sowie dem nicht im Report zu findenden Punkt "URL is unknown to Google".

Im Indexing Report bekommen wir zwei GrĂŒnde, die auf schlechte QualitĂ€t hinweisen:

  • Crawled – currently not indexed
  • Discovered – currently not indexed

Das Inspection Tool bzw. die Inspection API gibt uns aber noch einen dritten:

  • URL is unknown to Google

FrĂŒherℱ sind wir davon ausgegangen, dass solche URLs noch nicht indexiert sind, also von Google noch nicht entsprechend verarbeitet wurden. Heute wissen wir:

  • Google kann in der Vergangenheit ĂŒber URLs gestolpert sein, sie aber fĂŒr irrelevant halten und wieder “vergessen” – sie also nicht in den Indexing-Datenbanken abspeichern
  • URLs können in der Vergangenheit sogar indexiert gewesen und spĂ€ter im dynamischen Wettbewerb wieder aus dem auffindbaren Index aussortiert worden sein

Etwa bei 130 und 190 Tagen (lasst uns nicht zu genau sein) Àndert Google den Status im Indexing Report:

Indexing Insight Screenshot mit Balkendiagrammen, die unterschiedliche Indexing Status anzeigen und den Textboxen zur Crawling-PrioritÀt: "If a page is not crawled in 130 days, it gets actively removed. If a page is not crawled in 190 days, it gets actively forgotten."

"If a page is not crawled in 130 days, it gets actively removed. If a page is not crawled in 190 days, it gets actively forgotten." Adam Gent, Slide 77

Die GrĂ¶ĂŸe des Google Index ist ein atmendes System

Vor der Indexierung kommt das Crawling. Google hat eine relativ fixe Zahl an URLs, die es crawlt. Im Patent US7509315B1 beschreibt Google die soften und harten “Importance Thresholds” – also Schwellwerte eines Relevanz-Scorings, die eine URL ĂŒberschreiten muss, um in den Pool der zu crawlenden Seiten aufgenommen zu werden. TemporĂ€r können dann auch zusĂ€tzliche Dokumente in den Index wandern.

Übrigens: Bei Themenrelevanz (Topicality) spielt einerseits Information Gain eine Rolle: Kann ich dem Internet neue Erkenntnisse oder eine neue Perspektive liefern, statt nur zu wiederholen, was bereits im Index ist. Andererseits ist inhaltliche NĂ€he wichtig. Ich darf nicht zu weit vom Kernthema entfernt sein. Sonst sind die Vector Embeddings meiner Inhalte im mathematischen Raum (Topical Map) zu weit entfernt, als dass ich den Wettbewerb aufmischen könnte.

Neben der QualitĂ€t und der Anzahl spielt auch eine Rolle, wie groß die Dokumente sind. Denn auch der Speicherplatz bei Google bestimmt, wie viele Dokumente in den Index wandern:

"If we have tons of free space available, we're more likely to index crappier content. If we don't, we might deindex stuff to make space for higher quality docs." Google-Advokat Gary Illyes

Potenzielle MissverstÀndnisse

  • Ich hab bei Adam nochmal nachgefragt: Indexing Insight inspiziert 500k (fĂŒnfhunderttausend) Seiten tĂ€glich, nicht 500,00 (Folie 4).
  • Adam spricht von “technical errors”, also technischen Fehlern, warum URLs nicht indexiert sind. Das finde ich unglĂŒcklich. Google nennt das nicht “Fehler”, sondern “GrĂŒnde” – aus GrĂŒnden: Wenn ich URLs weiterleite, ist der Status Code 301 korrekt. Wenn ich Seiten auf noindex setze, ist der Grund fĂŒr die Nichtindexierung “noindex” korrekt. Wenn ich eine URL kanonisiere und Google das Canonical akzeptiert, ist das korrekt. Das als “Fehler” zu bezeichnen, sabotiert uns auch in der Kommunikation mit unseren Kunden. Ziel ist es hier nicht, das zu reparieren und “alles auf grĂŒn” zu stellen. Ganz hĂ€ufig ist hier alles OK.

  • Ich darf nicht immer davon ausgehen, dass es sich im Indexing Report um das identische URL-Set handelt und sich nur der Indexierungsstatus oder die GrĂŒnde fĂŒr die Nicht-Indexierung Ă€ndern. Aber wenn ich meine Sitemaps sinnvoll schneide und in der Search Console eintrage, kann ich mir tatsĂ€chlich die Entwicklung und Fluktuationen fĂŒr ein konstantes URL-Set anschauen – also unbedingt machen!

Ein toller Beitrag fĂŒr die SEO-Branche

In der Mischung, wie Adam offizielle Quellen mit eigener Forschung zu Erkenntnissen verdichtet, ist wirklich herausragend gut. So stell ich mir den Diskurs in der SEO-Gemeinschaft idealerweise vor. Mehr davon!

Darius Erdt
Darius Erdt
Head of Operations & Quality
Die Macht der Metaphern

Ich geb’s zu: Ich hab eine kleine SchwĂ€che. Keine fĂŒr Schokolade (naja
 vielleicht auch), sondern fĂŒr Metaphern.

Schon frĂŒher war das so. Zuletzt beim Offsite hab ich den bildlichen Vergleich zwischen guter SEO-Beratung und gutem Essen sehr gefeiert. Auch dass unser Teamevent dann noch ein Kochevent war und wir „SEO-Rezepte“ geschrieben haben – das war eine runde Sache.

Ich mag diese Bilder im Kopf. Vor zwei Jahren habe ich sogar mal eine kleine LinkedIn-Serie gestartet, in der ich SEO mit meinen Hobbys Angeln und Fußball verglichen hab. Das war absolut meins.

Nenn’s ruhig eine Macke. Ich nenn’s lieber: ein Werkzeug.

Warum Metaphern funktionieren

Ich erinnere mich noch gut an einen Vortrag von Sebastian Adler (GrĂŒĂŸe gehen raus!) von vor einigen Jahren. Er hat die Metapher eines Campingplatzes genutzt, um SEO-Prinzipien zu erklĂ€ren. Es war grandios! Ich weiß ehrlich gesagt nicht mehr, was genau er gesagt hat, aber ich seh den Campingplatz bis heute vor mir.

Und genau das ist der Punkt: Fakten verblassen. Bilder bleiben.

Wolfgang Jung (GrĂŒĂŸe Nummer zwei!) sagt ja auch immer: Emotionen schlagen Fakten. Und Recht hat er damit. Marketing soll Geschichten erzĂ€hlen.

Johan hat’s bei der letzten SEOkomm ebenfalls wunderbar vorgemacht: Sein Vortrag ĂŒber Suchmaschinen im weihnachtlichen Storytelling-Gewand hatte Charme. Bleibt in Erinnerung.

Und Julia Weißbach (damit sind wir bei Gruß Nummer drei!) greift in ihren VortrĂ€gen auch gern tief in die Bild- und Giphy-Trickkiste, um die Zuschauer in den Bann zu ziehen.

Und ich frag mich: Sollten wir das nicht auch in unserer SEO-Kommunikation viel öfter tun?

Ob Du Inhouse arbeitest und Dein Chef oder Deine Chefin endlich verstehen soll, dass SEO kein Plug-in ist, oder Du als Berater:in einem Kunden erklĂ€ren musst, warum „mehr Blogartikel“ nicht automatisch „mehr Umsatz“ heißt – Metaphern helfen, BrĂŒcken zu bauen.

Sie holen Dein GegenĂŒber dort ab, wo es steht, und machen komplexe Themen leichter verdaulich.

Ein Beispiel aus der Praxis

Ich erinnere mich an einen Vor-Ort-Termin aus meiner Consulting-Praxis, bei dem ich genau das versucht habe.

Der Kunde verstand SEO damals als Add-on. So ein bisschen „machen wir halt mit“. Wir hatten auditiert, beraten, validiert – alles da. Nur: umgesetzt wurde kaum etwas. Und wenn, dann ohne unsere Einbindung. Leider mit Folgen. Ganz nach dem Motto: „Gut hören kann ich schlecht, aber schlecht sehen kann ich gut.“

Die Consultants unter den Leser:innen denken jetzt sicher: Den Kunden kenn ich auch. 😄

Nach einiger Zeit hatte ich die Möglichkeit, diesen Kunden vor Ort zu besuchen. Es gab Meetings mit der IT, mit dem Produktmanagement und mit dem Marketing-Verantwortlichen.

Und beim letzten Termin hab ich mich gefragt: Wie schaffe ich es, diesen freundlich an den Karren zu fahren und gleichzeitig zu gewinnen, dass wir endlich die Rahmenbedingungen bekommen, um im SEO Fahrt aufzunehmen?

Meine Idee: Anstatt trocken den Maßnahmenplan runterzubeten, wollte ich ihn ĂŒber einen metaphorischen Vergleich abholen. Ihn auf eine kleine Reise mitnehmen. Eine Geschichte erzĂ€hlen.

Mein Bild: Deine Website ist ein Schiff.

Und ohne, dass ich Dir jetzt Details ĂŒber die Website verrate, wirst Du ĂŒber die folgende Storyline, denke ich, verstehen, wie der Status quo des Kunden war und wo ich mit ihm strategisch hinwollte.

Das also waren die Überschriften meines Slidedecks:

  1. Ihr seid ein mittelgroßes Segelschiff.
  2. Doch Ihr wart in der Vergangenheit schon mal ein grĂ¶ĂŸeres Segelschiff. Beim Relaunch habt Ihr Euch entschieden, auf weniger KajĂŒten zu setzen.
  3. Beim Umbau des Segelschiffs hat nicht alles funktioniert. Ohne gespannte Segel konnte man nicht genug Fahrt aufnehmen.
  4. Die Segel sind nun wieder gespannt. Aber eigentlich kommt man mit anderen Schiffstypen viel besser ans Ziel.
  5. Denn: Der nÀchste Sturm kommt bestimmt bzw. genau genommen kam er letzte Woche.
  6. Ihr wollt Euch vom Wind des Google-Algorithmus nicht abhÀngig machen? Dann ist ein Dampfschiff vielleicht effektiver.
  7. Doch auch hier gilt: Nur wer viele KajĂŒten hat, kann viele Insassen beglĂŒcken. Skalierung ist der Weg zum Erfolg.
  8. Und nichts geht ohne einen ordentlichen Schiffsplan und die Beschriftung der Schiffsbereiche. Sonst landen die Passagiere zum Schlafen in der SchiffskĂŒche.
  9. Aber Eure Zielgruppe ĂŒberzeugt man heute nicht mehr mit einem Dampfschiff. Einen Motor mit Speed braucht es. Und gut eingerichtet muss es sein.
  10. Die Frage ist daher: Welches Schiff wollt Ihr sein?

Ich weiß noch, dass dieser Vergleich damals im Meeting eine wunderbare BrĂŒcke geschlagen hat, um dann inhaltlich ĂŒber die konkreten nĂ€chsten Schritte fĂŒr das Folgejahr zu sprechen.

Ob dem Entscheider die Metapher gefallen hat? Keine Ahnung. Aber ich glaube, sie ist im GedÀchtnis geblieben.

Hinkt die Metapher, wenn man es ganz genau nimmt? Ehrlicherweise ja. Aber das ist bei bildlichen Vergleichen oft so. Interessant ist eher die ĂŒbergreifende Aussage. Nicht, dass jedes Detail ĂŒbertragbar ist.

Ob’s auch ohne Metapher geklappt hĂ€tte? Sicher. Aber ich wette, sie hat geholfen, dass der Kunde SEO nicht mehr nur als „Add-on“ gesehen hat.

NatĂŒrlich braucht’s FeingefĂŒhl

Klar, nicht jede Metapher passt zu jedem Menschen. Wenn Dein GegenĂŒber gerade erst von einer ĂŒblen Bootstour zurĂŒckkam, ist das mit dem „Segelschiff“ vielleicht nicht die beste Idee. 😅

Darum: Kenne Dein Publikum. Und dann trau Dich, bildlich zu werden.

Das geht ĂŒbrigens auch wunderbar nebenbei im Alltag. Kleine bildhafte ErklĂ€rungen bleiben oft besser hĂ€ngen als 20 Minuten Tech-Talk.

Zum Beispiel: Wenn Du jemanden davon ĂŒberzeugen willst, endlich die SEO-Hygienefaktoren umzusetzen, also das, was einfach sein muss, bevor’s schön wird, dann kam mir auch schon mal folgende ketzerische Frage in den Sinn:

„Sag mal, wĂŒrdest Du vor einem Date ungeduscht erscheinen?“ Genau. 😄

Solche Mini-Metaphern machen selbst trockene Themen greifbar und sorgen ganz nebenbei dafĂŒr, dass Dein GegenĂŒber sich an Dich erinnert.

Und genau da liegt die wahre Macht der Metaphern. Wenn’s passt.

Vorherige AusgabeNĂ€chste Ausgabe
 
Fragen? Immer gerne fragen!
Wir sind fĂŒr Dich da.
Schreib uns gern jederzeit
eine E-Mail an [email protected] oder
ruf uns einfach kurz an: +49 40 22868040

Bis bald,
Deine Wingmenschen
Anckelmannsplatz 1, 20537 Hamburg, Germany
Wingmen Online Marketing GmbH Logo