Wirklich wahres Wingmen SEO Wissen f├╝r wache Webmarketer #156
Wingmen Online Marketing GmbH Logo
Florian Stelzner
Florian Stelzner
Gesch├Ąftsf├╝hrender Gesellschafter
­čĄî Smells like SEO Spirit

Neeva gonna let you down, neeva gonna make you cryÔÇŽ Tja, leider nix mehr mit come as you are und ein weiterer "Google Killer" hat ins Gras bei├čen m├╝ssen. Fieses Google! Mehr ├╝ber die Hintergr├╝nde erf├Ąhrst Du im Artikel von Don Johan, der umringt wird von weiteren spannend-mafi├Âsen Artikeln von:

  • Padre Behrend, dessen Anw├Ąlte openAI den Prozess machen
  • Capo Jolle, die ihre mafi├Âse Erfahrung ├╝ber Tests am Objekt stellt
  • Capitane Johan ├╝ber die Enttarnung eines neuen Google Bots
  • Buchhalterin Nora entlarvt den User Agent innerhalb ihrer Billanz
  • Consigliere Caro dar├╝ber, wie man die Konkurrenz um ihre ungerechtfertigten Featured Snippets bringt.

Ciao!

Deine Wingmenschen

Was wir gelesen haben
Behrend von H├╝lsen
Behrend von H├╝lsen
Consultant
Trainieren geht ├╝ber Kassieren

Ja... wieder was ├╝ber AI ┬»\_(Ńâä)_/┬»

Die Entwicklung des Internets hat schon mehrfach massive Probleme Herausforderungen mit dem Urheberrecht ausgel├Âst. Vor etwas mehr als 20 Jahren beispielsweise hat Napster der Welt vor Augen gef├╝hrt, dass das Urheberrecht mit dem Internet v├Âllig neue Aufgaben l├Âsen muss. Und seit mittlerweile ├╝ber zehn Jahren wird diskutiert, ob Suchmaschinen News-Publisher daf├╝r bezahlen m├╝ssen, sie zu verlinken. Beides ist auch nach Jahren nur so leidlich gekl├Ąrt, sowohl gesellschaftlich als auch juristisch...

Jetzt kommt das Thema AI-Modelle und Trainingsdaten noch dazu: D├╝rfen Inhalte ohne Zustimmung des Urhebers/Rechteinhabers genutzt werden, um KI zu trainieren?

Open AI und Co. sind davon wohl ausgegangen und haben ihre bahnbrechenden Modelle erstmal auf allem trainiert, was das Internet zu bieten hatte. Wir haben schon ein paar Beispiele daf├╝r in unserem Newsletter erw├Ąhnt und das Thema wird auch au├čerhalb der Tech Bubble diskutiert.

Insbesondere f├╝r Bilder ist hier die Diskussion schon vor Gerichten gelandet. Ob ein konkreter Inhalt verwendet wurde, ist in der Regel schwer nachzuweisen. Das Wasserzeichen von Getty Images ist da eher die Ausnahme. Wie die Verarbeitung von Inhalten durch die KI, die den eigentlichen Inhalt nicht speichern, sondern lediglich das Modell davon beeinflussen lassen (so wie ein menschlicher K├╝nstler sich von einem Inhalt inspirieren lassen w├╝rde?) bewertet wird, ist noch v├Âllig offen.

Daher versuchen die Rechteinhaber, eher die Bereitstellung der Trainingsdaten anzugehen. Das Portal haveibeentrained.com gibt Dir die M├Âglichkeit herauszufinden, ob Deine Inhalte bereits in Trainingsdatens├Ątzen Verwendung finden.

Der Fotograf Robert Kneschke hat sich auf der Basis mit dem LAION e.V. angelegt und berichtet ├╝ber seine Sichtweise der Dinge. Interessant finde ich den Kniff von LAION, nicht die Bilder selbst bereitzustellen, sondern nur die URLs. Mein laienhaftes Rechtsverst├Ąndnis bef├╝rchtet, dass entsprechende Urteile auch abseits von KI-Themen rechtliche Auswirkungen auf das Setzen von Links haben (gute oder schlechte).

Auf der anderen Seite versucht beispielsweise Shutterstock mit lizenzierten Trainingsdaten Geld zu verdienen, was m├Ą├čig gut bei den Inhalteerstellenden anzukommen scheint. Und auch wenn sich im deutschen Recht oder gar auf EU-Ebene ein Konsens findet, wie damit umgegangen wird, hei├čt das nicht, dass andere Teile der Welt dem folgen. Wenn sich beispielsweise El Salvador schon versucht, als KI-Steueroase zu positionieren, w├Ąre es schlie├člich kontraproduktiv, das mit restriktiver Urheberrechtsauslegung zu torpedieren. Hier verbergen sich eine nicht definierte Zahl moralischer Dilemmata (Dilemmen? Dilemmas? Hey Bard, wie schreib ich das richtig?) zwischen den Chancen, die moderne AI-Modelle bieten, und den Rechten der genauso modernen Menschen, deren Arbeit geklaut, kopiert, ├╝berlagert oder lohngedumpt wird, weil AI so viel schneller skaliert.

Jolle Lahr-Eigen
Jolle Lahr-Eigen
Consultant
SEO-Erfahrung > Tests? ­čĹÁ­čö«­čśÁÔÇŹ­čĺź

Wieder eine spannende Case Study von SearchPilot. Du wei├čt schon. Die Bande, die auf gro├čen Websites mit gen├╝gend vergleichbaren Seiten-Templates A-/B-Testing betreibt, um den Effekt von Ma├čnahmen auf organische Rankings und Klicks systematisch zu bestimmen.

Was SearchPilot nicht m├╝de wird zu betonen: Ihnen geht es nicht um Wissenschaft, sondern ums Gesch├Ąft. Deshalb pl├Ądieren sie daf├╝r, Ma├čnahmen auch dann umzusetzen, wenn die Testergebnisse vielleicht nicht statistisch signifikant sind, aber trotzdem in die richtige Richtung gehen: "Default to deploy". Schlie├člich zeigt so ein Testresultat auch, dass man zumindest die Bestands-Performance nicht kaputt macht. Und auch kleine Vorteile addieren sich auf.

Der Test: Article-Markup auf Artikeln einer Service-Review-Page

Die neueste Case Study ist vor diesem Hintergrund dennoch bemerkenswert. SearchPilot hat getestet, welchen Effekt das Auszeichnen von Artikeln auf einer Seite mit "Service Reviews" (also nicht im Newsbereich) mit strukturierten Daten (Article-Schema-Markup) auf den organischen Traffic hat. Bei all den Review-Updates der letzten Zeit super spannend.

Das Ergebnis?

Nicht eindeutig, aber in der Tendenz negativ.

Die Konsequenz?

Sie implementieren das Article-Markup dennoch seitenweit.

Die Begr├╝ndung?

  • "Default to deploy" hei├čt bei unschl├╝ssigen Ergebnissen generell, dass SearchPilot lieber implementiert, als unt├Ątig zu bleiben. F├╝r Schadensbegrenzung reicht das nicht allzu negative Ergebnis aus.

  • SearchPilot verweist zudem darauf, dass Google sich generell f├╝r strukturierte Daten ausspricht, um Artikel besser zu verstehen. Sie erhoffen sich durch diese "Kooperation" mit Google langfristig einen positiven Effekt.

  • Eine Wette auf die Umbr├╝che durch K├╝nstliche Intelligenz

"With AI becoming an ever-growing part of how search engines understand content to deliver answers to user queries, schema markup can help crawlers become more efficient in understanding the context and purpose of pages.

While the direct impact of this is harder to measure, it's an important factor to consider when deciding whether or not to implement article schema."

ÔÇö Rida Abidi, SearchPilot

Was halten wir davon?

Wir k├Ânnen davon ausgehen, dass SearchPilot bei eindeutig negativen Testergebnissen von der Implementierung der Ma├čnahmen absieht. Denn wenn sie Entscheidungen dar├╝ber allein aus g├Ąngigen Best Practices und Vorgaben von Google ableiten w├╝rden, g├Ąbe es keinen Mehrwert ihrer Testing-Strategie.

Zur Wahrheit geh├Ârt auch, dass wir SEOs in vielen Szenarien nicht die Bedingungen zum Testen vorfinden und deshalb viele unserer Empfehlungen aus diesen zwei Quellen ableiten: unsere Erfahrung und die vom (immer noch) gr├Â├čten Player auf dem Markt festgeschriebenen Regeln.

Die Verkn├╝pfung zur KI finde ich einigerma├čen windig. Richtig ist, dass wir Google mit strukturierten Daten dabei helfen, unseren Content besser zu verstehen und so Fehlinterpretationen und Ungenauigkeiten zu vermeiden. Die Hoffnung ist berechtigt, dass Google die Crawling-Dividende nicht einfach durch eingesparte Ressourcen einstreicht, sondern Seiten im Gegenzug mit guten Rankings belohnt, sofern Qualit├Ąt und Inhalt passen.

Eine zweite Hoffnung versteckt sich darin: Aktuelle Tests geben nicht wieder, wie sich das Web und SEO weiterentwickeln werden. Hier in ├ťbereinstimmung mit Erfahrung, Best Practices und den Hinweisen von Google zu arbeiten, sollte uns die grobe Richtung weisen, um zukunftssichere Entscheidungen zu treffen, statt immer nur dem aktuellen Update nachzujagen.

Aber die Versuchung, dass wir nicht passende Testergebnisse rationalisieren und uns in die eigene Tasche l├╝gen, ist gro├č. Diesen Test w├╝rde ich also gerne in sechs Monaten und in zwei Jahren nochmal wiederholen, um die Entwicklung im Auge zu behalten.

Was wir zudem nicht wissen:

Wie vollst├Ąndig waren die im Markup abgelegten Informationen (Autor, Thema, ├ťberschriften etc.) bereits im unstrukturierten Text enthalten und wie gut konnte eine saubere HTML-Struktur daf├╝r sorgen, dass Suchmaschinen die Daten auch ohne Markup sauber extrahieren konnten? Denn HTML ist Pflicht, Schema ist K├╝r. Aber vielleicht bin ich schon viel zu sehr in die Rationalisierungsfalle getappt... Was meinst Du?

Johan von H├╝lsen
Johan von H├╝lsen
Gesch├Ąftsf├╝hrender Gesellschafter
Neeva build a business on third party data

Neeva schlie├čt den Endkundenbereich. ├ťber Neeva haben wir im Newsletter mehrfach berichtet. Neeva war angetreten, den Weg zu einer Paid-Suchmaschine anzutreten.

Jetzt konzentriert man sich auf das B2B- und Enterprise-Segment und will die Erfahrungen, Suche und Large Language Models zu kombinieren, dort einbringen.

Woran ist Neeva gescheitert?

Im Blogpost hei├čt es:

"But throughout this journey, we've discovered that it is one thing to build a search engine, and an entirely different thing to convince regular users of the need to switch to a better choice.

From the unnecessary friction required to change default search settings, to the challenges in helping people understand the difference between a search engine and a browser, acquiring users has been really hard.

Contrary to popular belief, convincing users to pay for a better experience was actually a less difficult problem compared to getting them to try a new search engine in the first place."

Im Kern l├Ąuft es auf 3 Probleme hinaus:

  1. User sind nicht auf der Suche nach einer Alternative zu Google. Man muss den Menschen beibringen, dass sie eigentlich eine bessere Suche haben k├Ânnten. Das ist richtig aufw├Ąndig.

  2. LLMs kosten Geld und machen die Suche teuer. Neeva verweist darauf, dass sie g├╝nstige Varianten bauen k├Ânnen, aber genau das ist ein Beleg f├╝r die These. Zus├Ątzlich ist ÔÇ×Die Suche mit AI" kein Alleinstellungsmerkmal mehr, wo Bing es eingebaut und Google es angek├╝ndigt hat.

  3. Neeva hat keinen eigenen Index gehabt, sondern die Ergebnisse von Bing lizenziert. Im Februar kam raus, dass die Lizenzierung der Ergebnisse von Bing massiv teurer wird.

In Kombination sind diese Probleme schwer zu l├Âsen. Es ist schade, dass hier ein Innovator die Segel streichen muss. Es ist aber auch ein Beleg daf├╝r, dass:

  1. Eine Suchmaschine zu bauen komplexer ist, als viele denken.

  2. Du den Kern Deines Produktes selbst in der Hand haben und nicht von Dritten einkaufen solltest (bravo brave).

  3. Ein eigener Index es aber schwer macht, gute Ergebnisse zu liefern.

  4. Es unheimlich schwer ist, einen USP gegen├╝ber Google aufzubauen, der auch strategisch h├Ąlt.

Passenderweise hat gleichzeitig Perplexity neue Features angek├╝ndigt. Trommelwirbel: AI-Chatbot an der Seite der Ergebnisse. Anita hat ja gerade erst eine Liste unserer Artikel zu alternativen Suchmaschinen zusammengestellt. Was meinst Du? Sollten wir die ├ťbersicht ├╝ber Google-Alternativen aktualisieren? Die ├ťbersicht ist ja noch ohne Neeva und You.com (beispielsweise).

Caro Wendt
Caro Wendt
Junior Consultant
Ungerechtfertigte Featured Snippets von Konkurrenten entfernen

Wusstest Du schon, dass Du Deinen SEO-Konkurrenten zwischenzeitlich das Featured Snippet entziehen und damit vielleicht sogar deren Rankings dr├╝cken kannst?

Verrückt oder? Aber wahr. 

Und so k├Ânnte es gehen:

  1. Bei Deinen Konkurrenten nach einem Unterschied zwischen gecachtem Content und Live-Content suchen und finden (zum Beispiel ├╝ber "cache:beispiel.de/beispiel-url/" in Deiner Browser-Zeile eingeben).

  2. Das Ganze via https://search.google.com/search-console/remove-outdated-content reporten.

  3. Zack: Durch das Reporting fliegt das Featured Snippet sofort raus. Die Seite bleibt vermutlich im Index, Rankings k├Ânnen jedoch darunter leiden.

  4. Google wird erneut crawlen und evaluieren. Sollte durch das Recrawling festgestellt werden, dass das Featured Snippet doch verdient war, wird es auch wieder auftauchen.

Google hat dazu entsprechende Informationen im Help Center hinterlegt. 

In der Comment Section scheinen sich derzeit Publisher dar├╝ber zu beschweren, dass dieses Tool, das jeder ├Âffentlich nutzen kann, missbraucht werde, sodass zum Teil sehr viele Requests gestellt werden und ihre Rankings darunter leiden.

Allerdings wirkt es auch so, als w├╝rde das Recrawling sehr zeitnah stattfinden, sodass bei ungerechtfertigten Requests der vorherige Zustand sehr schnell wieder hergestellt wird.

Selbstverst├Ąndlich solltest Du diese Requests nur stellen, wenn es tats├Ąchlich gerechtfertigt ist. Sonst: Karma-Konto im Keller!

Wenn Dir selbst sowas mal zu unrecht passieren sollte, kannst Du Dich dagegen wehren (und solltest es auch):

Dazu ben├Âtigst Du lediglich den Zugriff auf die GSC Deiner Domain und gehst auf den Removals-Bericht und dann auch den "Outdated Content"-Tab:

Leerer Removals-Bericht mit dem Tab "Outdated Content" aus der Google Search Console Removals-Bericht der GSC im "Outdated Content"-Tab

Dort kannst Du im zweiten Schritt den Request ├╝ber die drei Punkte canceln, wie hier im Screenshot von Oliver Mason zu sehen:

Outdated Cache Removal Bericht in der GSC mit Klick auf die drei Punkte, sodass gezeigt wird, wo man den Request canceln kann Option f├╝r das Canceling von Outdated Cache Removal Requests

Google listet hier Gr├╝nde, warum ein Removal Request abgelehnt werden k├Ânnte.

Solltest Du Dich fragen, wer denn stattdessen das Featured Snippet erhalten w├╝rde, wenn Google das aktuelle Featured Snippet kickt, hilft Dir eine Negativ-Site-Search weiter:

  1. Mit -site:beispiel.de Keyword kannst Du die Domain ausschlie├čen, die es aktuell f├╝r ein bestimmtes Keyword inne hat.

  2. Auf der SERP dieser Site-Search kannst Du dann sehen, welche Domain stattdessen im Featured Snippet angezeigt wird.

Ein paar Tipps zur generellen Erreichung von Featured Snippet hatte Anita Dir in dieser Ausgabe mal aufgezeigt.

Ist Dir so ein solcher Outdated Cache Removal Request in Deiner Search Console schon einmal aufgefallen? Wenn ja, war es gerechtfertigt? Welche Auswirkungen konntest du beobachten?

Nora Tiedemann
Nora Tiedemann
Junior Consultant
Inspektor Gadget wird enttarnt ­čĽÁ´ŞĆ

Bislang waren von au├čen die Abrufe des URL Inspection Live Tests und des Rich Result Tests der Google Search Console nicht von denen des normalen Googlebots zu unterscheiden.

Damit ist nun Schluss. Gary Illyes hat mitgeteilt, dass es einen neuen Google User Agent gibt und verweist auf den neuen Abschnitt "Google-InspectionTool" in der User Agent Dokumentation:

Statt [crawler version](compatible; Googlebot/2.1; +http://www.google.com/bot.html) hei├čt es f├╝r die Inspection-Tools in Zukunft [crawler version](compatible; Google-InspectionTool/1.0).

F├╝r die meisten Domains macht das keinen gro├čen Unterschied

Schlie├člich sollte der Googlebot nicht anders behandelt werden als normale Nutzer. Auch lauscht der neue User Agent in der robots.txt nicht nur auf seinen Namen (Google-InspectionTool), sondern auch auf Googlebot.

Die SEOs vieler Publisher betrifft das aber schon

Zum Beispiel, wenn:

  1. Sie Inhalte hinter der Paywall haben, die Googlebot vollst├Ąndig sehen soll.

  2. Das Consent-Banner ├╝ber eine eigene URL leitet, von der der Googlebot tunlichst ausgeschlossen geh├Ârt, da er schlie├člich niemals den Consent akzeptieren kann.

In beiden F├Ąllen ist das normale Crawling nicht beeinflusst, aber das Inspection Tool wird wahrscheinlich nicht mehr so behandelt, wie der regul├Ąre Googlebot.

F├╝r die oben genannten Beispiele bedeutet das

  1. Technisch versierte Nutzer k├Ânnen sich nicht mehr ├╝ber den Rich Result Test an der Paywall vorbeischleichen, sondern sehen auch dort erstmal nur noch die Paywall oder das Consent-Banner, wie hier beim Spiegel: Screenshot des Google Rich Result Test von einem Spiegel+ Artikel. Der gerenderte Bildausschnitt der URL zeigt die Paywall f├╝r Spiegel+.

  2. Du als SEO in der Search Console siehst im Live-Test im Zweifel nur noch das Consent-Banner.

Ersteres ist m├Âglicherweise der Hauptgrund f├╝r diese Anpassung, auch wenn das vermutlich kein massiv genutztes Schlupfloch f├╝r Gratislesepiraten war. So oder so, wenn Deine Domain irgendwo eine Sonderbehandlung f├╝r Googlebot vorsieht, solltest Du kl├Ąren, wie Du damit umgehen willst.

M├Âglicherweise ist es am einfachsten, den neuen User-Agent genauso zu behandeln wie Googlebot. Alternativ k├Ânntest Du vorbereiten, den Inspector kurzfristig f├╝r das Debugging freischalten zu k├Ânnen. Denn wenn Probleme mit Paywall, Consent oder ├ähnlichem pl├Âtzlich die Indexierung der Inhalte blockieren, ist ein schnelles Debugging bares Geld wert. ­čĄĹ

Vorherige AusgabeN├Ąchste Ausgabe
 
Fragen? Immer gerne fragen!
Wir sind f├╝r Dich da.
Schreib uns gern jederzeit
eine E-Mail an kontakt@wngmn.de oder
ruf uns einfach kurz an: +49 40 22868040

Bis bald,
Deine Wingmen
Anckelmannsplatz 1, 20537 Hamburg, Germany
Wingmen Online Marketing GmbH Logo