Wirklich wahres Wingmen SEO Wissen für wache Webmarketer #173
Wingmen Online Marketing GmbH Logo
Behrend von Hülsen
Behrend von Hülsen
Consultant
(-: Lächeln ist eine Kunst

Heute vor 41 Jahren wurde das Lächeln neu erfunden. Dank Scott E.Fahlman wissen wir, wie wir nur mit ASCII-Zeichen grundlegende Emotionen kommunizieren können.

Eine Fähigkeit, die täglich von Millionen eingesetzt wird. Es gibt zwar inzwischen im UTF-8 Zeichenraum unzählige Emojis, aber der gute alte ASCII-Smiley ist davon noch lange nicht verdrängt worden.

Dieser Glanzleistung widmen wir die folgenden Artikel:

  • 8-) Philipp wirft noch einen Blick auf die Volatilität der SGE.

  • (@_@) Anita betrachtet diverse Google-Entwicklungen mal in ihrer Gesamtheit.

  • :-D Nora verrät Dir Details über ein weiteres Google Update.

  • ;-) Christoph ermutigt Fahrrad.de seine Verzeichnisse aufzuräumen.

  • \o/ Johan jubelt über die besten Vorträge auf der SMX Advanced

Viel Spaß beim Lesen :-),

Deine Wingmenschen

Was wir gelesen haben
 Philipp Götza
Philipp Götza
Junior Consultant
SGE-Volatilität unter der Lupe

Nach meinem Aufreger letzte Woche um das SGE-Vorhersagemodell bin ich diese Woche angehalten, Dir ein paar meiner Beobachtungen zu offenbaren. Ohne dabei zu behaupten, dass das, was ich schreibe, allgemeingültig ist.

Im Fokus: Wie stark verändern sich die Ergebnisse über den Tag verteilt (Volatilität)?

Die Keyword-Auswahl

Um zu demonstrieren, wie volatil die SGE eigentlich ist, habe ich insgesamt 11 Keywords beobachtet:

  • 3x YMYL

  • 3x E-Commerce Category

  • 2x E-Commerce Product

  • 2x Know 

  • 1x Local

YMYL-Themen wurden viel diskutiert, weil unklar war, ob es überhaupt einen AI Overview für derartige Keywords geben würde. Und die letzten Monate waren die Beobachtungen durchaus variabel. Mein letzter Eindruck ist aber: Das hat sich eingependelt und es wird häufig ein AI Overview generiert.

Für den E-Commerce sehe ich große Chancen, vor allem im Produktbereich. Auch hier habe ich sehr unterschiedliche Beobachtungen gemacht, daher habe ich 3 Suchanfragen für Kategorien und 2 für Produkte in mein Monitoring für diesen Test mit aufgenommen.

Da die informationalen Keywords in dem Framework von letzter Woche stark thematisiert wurden, habe ich auch hier 2 Varianten aufgenommen. Eine, bei der durch das Keyword nicht sofort klar wird, was die Suchintention ist und ein anderes Beispiel, wo dies eindeutig ist.

Die Beobachtungen bei lokalen Keywords fand ich bis auf 3-Pack vs. 4-Pack vs. 5-Pack vor dem Test eher weniger interessant und jeweils sehr ähnlich. Daher habe ich für diesen Test nur ein Keyword dieser Art inkludiert.

Die Stichproben

Was mir deutlich aufgefallen ist: Der AI Overview verändert sich mehrmals am gleichen Tag. Daher wollte ich nicht nur 3 Beobachtungen machen. Insgesamt habe ich pro Keyword 6 unterschiedliche Zeiten geprüft.

8 Uhr, 11 Uhr, 14 Uhr, 17 Uhr, 20 Uhr und 8 Uhr am Folgetag. So kann relativ gut beurteilt werden, wie volatil die SGE für ein und die gleiche Suchanfrage über einen Tag ist.

Meine Prüfkriterien

Was genau habe ich geprüft?

  • Gibt es einen AI Overview?

  • Wurde dieser automatisch generiert?

  • Sind die 3 sichtbaren Quellen identisch zur vorherigen Beobachtung?*

  • Ist der Inhalt zur vorherigen Beobachtung identisch?

  • Wie groß ist der inhaltliche Unterschied zur vorherigen Beobachtung?**

* Identische Quellen = in aufeinanderfolgenden Beobachtung X und Beobachtung Y sind die identischen 3 Quellen direkt sichtbar (unabhängig von der Reihenfolge)

** Wie groß ist der inhaltliche Unterschied?

  • Klein = der Inhalt unterscheidet sich nicht in der Formatierung und nur minimal im eigentlichen Inhalt

  • Mittel = der Inhalt unterscheidet sich leicht in der Formatierung und dem eigentlichen Inhalt

  • Groß = der Inhalt unterscheidet sich maßgeblich in der Formatierung und dem eigentlichen Inhalt

Die Ergebnisse

Hier sind ein paar Key Insights meiner Beobachtungen:

  • In über 92% der Beobachtungen (61 von 66 Fällen) gibt es einen AI Overview – lediglich 5 Ergebnisse haben kein AI Overview generiert

  • In mehr als 50% der Beobachtungen wird der AI Overview nicht automatisch generiert, muss also durch Anklicken des xy Buttons manuell ausgelöst werden

  • Gerade mal ⅓ der Beobachtungen haben identische Quellen zur jeweils vorherigen Beobachtung (unabhängig von deren Reihenfolge)

  • Mehr als 80% der Beobachtungen haben sich unterscheidende Inhalte

  • Die inhaltlichen Unterschiede sind in den meisten Fällen klein (dann mittel und dann groß) – aber alle 3 Levels waren deutlich vertreten

Ein Balkendiagramm mit der Überschrift "Ist ein AI Overview vorhanden?". Auf der X-Achse sind "ja" und "nein" die Ausprägungen der Balken. "ja" erreicht einen Wert von 61 von 66 Beobachtungen und "nein" einen Wert von 5 von 66 Beobachtungen.

Ein Balkendiagramm mit der Überschrift "Wurde der AI Overview automatisch generiert?". Auf der X-Achse sind "ja" und "nein" die Ausprägungen der Balken. "ja" erreicht einen Wert von 26 von 66 Beobachtungen und "nein" einen Wert von 35 von 66 Beobachtungen.

Das muss man sich differenzierter anschauen. Was sich aber auf jeden Fall sagen lässt: Für fast alle Beobachtungen gibt es einen AI Overview, der aber nicht immer (<50%) direkt generiert wird, sondern durch eine Interaktion der Nutzer*innen.

Ein Bild das zeigt, wie Google den AI Overview anbietet, wenn dieser nicht automatisch generiert wurde. Es wird eine Frage gestellt"Get an AI-powered overview for this search?" und ein Button "Generate" als Interaktionsmöglichkeit dargestellt.

Warum ist das spannend? Weil ein großer Kritikpunkt von KI-gestützter Suche und Antworten seit Anbeginn ist, dass die Antwortzeit häufig relativ lang ist. Man ist es gewöhnt, dass schnell ein Ergebnis ausgespielt wird. Wenn dann direkt eine KI-Antwort generiert wird, wartet man länger, oder wird gestört, wenn man gerade einen Link klicken möchte und es zu einem massiven Layout Shift kommt.

Wenn eine Wahlmöglichkeit besteht, wird man nicht bevormundet und gewöhnt sich möglicherweise mehr an das Feature und wie es sich von der normalen Suche unterscheidet. Außerdem wird nicht jede*r klicken. Wie häufig das passiert, kann außer Google (die fleißig testen) niemand beantworten.

Das Interaktionsverhalten jetzt zum Beginn wird sicherlich ein anderes sein, als in einem Jahr. Die, die sich bewusst anmelden, um die SGE auszuprobieren, verhalten sich anders (These: interagieren mehr), als die breite Masse es tun würde. Menschen brauchen Zeit, um ihr Verhalten anzupassen.

Auch spannend: Bei einem einzigen Keyword wurde in jedem AI Overview eine nahezu identische Antwort ausgespielt (in 5 von 6 Fällen) mit jeweils den gleichen Quellen zur vorherigen Beobachtung. Das werde ich mir anhand des Keyword-Formats nochmal anschauen.

Bei meinen Beobachtungen wurden bei den Kategorie-Keywords keine AI Overview mehr automatisch generiert. Die Unterscheidung im Inhalt war bei den Kategorie-Keywords insgesamt im Durchschnitt immer kleiner als bei den anderen Keywords. Das gilt nicht nur für den generierten Text, sondern auch für die vorgeschlagenen Produkte, die jeweils bei aufeinanderfolgenden Beobachtungen immer sehr ähnlich waren.

Da ich 3 Kategorie-Keywords im Gepäck habe und hier aktuell jeweils keine AI Overviews automatisch generiert werden (Ausnahme 1 Beobachtung!), wird das Bild aus dem zweiten Graphen oben etwas verzerrt. Der reale Wert wird eher bei 50/50 liegen.

Was wir daraus (nochmal) lernen

SGE = Volatil.

Mit manuellen Beobachtungen kommt man hier nicht weit.

Sie helfen, einen Überblick zu bekommen, reichen aber nicht, um verlässliche Daten zu bekommen. Am entscheidendsten ist folgendes: Der Zeitraum der Beobachtung ist zu klein.

Wachsam sein ist erneut das Stichwort. Wir sind gespannt, ob, wann und in welcher Form die SGE erstmals in Deutschland verfügbar gemacht wird. Und die Frage, die wir uns alle stellen: Werden wir Daten in der GSC bekommen, oder nicht? Microsoft hat es mit den versprochenen Daten zu Bing ja leider nicht so eilig.\ Du möchtest die SGE selbst mal ausprobieren? Dann schau Dir Anitas hilfreiche Anleitung an!

Anita Böhm
Anita Böhm
Consultant
Fleißige Google-Bienchen

Es ist manchmal gar nicht so einfach, Schritt zu halten mit allem, was in der SEO-Welt passiert. Google ist gerade mal wieder an tausend Baustellen zugange und schraubt beflissen an allen Ecken und Enden.

Ich habe daher ein paar der aktuellen Entwicklungen und Entdeckungen für Dich zusammengetragen, damit wir alle den Überblick nicht verlieren.

Die Ära der FAQ- & How To- Snippets ist vorüber

Caro hatte Mitte August in Ausgabe 168 bereits über Googles Pläne berichtet. Jetzt zieht Google den FAQ-Snippets endgültig den Stecker: Wie Brodie Clark in seinem LinkedIn Post zeigt, ist nun auch auf dem Desktop Sense.

Auch für die HowTo-Snippets ist es aus und vorbei. Am 14. September verkündet Google, dass es nun auch auf dem Desktop keine HowTo-Snippets mehr gibt:

"Continuing our efforts to simplify Google's search results, we're extending the How-to change to desktop as well, which means this result type is deprecated."

Das heißt natürlich nicht, dass Du vorhandenes Markup ausbauen und auch keinen Content mehr in diesen Formaten erstellen solltest. Beides schadet nicht und sofern es Deinen Nutzer*innen hilft, solltest Du es unbedingt beibehalten. Egal ob es dafür ein schickes Snippet gibt oder nicht.

Lang leben die How Tos

Kaum für tot erklärt, tauchen die HowTos wieder auf – und zwar im Rahmen der SGE. Hier zeigt uns Glenn Gabe ein Beispiel, welches ich auch bei mir in der SGE reproduzieren konnte.

Screenshot aus der Google Suche mit der Suchanfrage "how to export gsc data for specific urls". Die obere Hälfte ist ein SGE-Ergebnis, welches eine Liste mit 7 Schritten umfasst. Diese ist sehr nah an der Liste angelehnt, die in der angezapften Quelle, einem Blog-Artikel von Glenn Gabe, zu sehen ist und wird als Snippet mit Liste direkt unterhalb des SGE-Ergebnisses angezeigt.

Ich habe extra nochmal nachgeschaut - auf der URL von Glenns Artikel ist wirklich kein HowTo-Markup vorhanden und dennoch präsentiert uns die SGE hier eine Schritt-für-Schritt Anleitung. Falls Du es selbst einmal testen magst, such' mal nach "how to export gsc data for specific urls". Natürlich aus dem VPN und mit aktiviertem SGE-Test. Wie Du die SGE bei Dir aktivieren kannst, habe ich hier für Dich aufgeschrieben.

Wir können uns also darauf einstellen, HowTos auch in Zukunft zu sehen, auch wenn das Markup nicht mehr unterstützt wird. Sofern es sich bei der Sichtung nicht nur um einen Bug oder Test handelt. Ein Grund mehr, das Format weiterhin zu nutzen, wenn es inhaltlich sinnvoll ist!

Artikel-Snippets mit Autoren

Den aufmerksamen Augen einiger SEOs entgeht nichts. So vor etwa 2 Wochen auch der Test, die Namen von Autoren in Google News und Google Discover anzuzeigen. Ehrlicherweise jetzt kein brandneuer Einfall, aber es ist schon eine ganze Weile her, dass Autorennamen hier angezeigt wurden.

Johan hat den Test auch in Deutschland entdecken können.

Screenshot aus Google News, in dem 2 Artikel-Teaser zu sehen sind. Einer von beiden hat den Zusatz "Wolfgang Horch" neben der Zeitangabe zur Veröffentlichung "vor 9 Stunden" unterhalb des Titels "Airbus Hoffnungsträger A321XLR aus Hamburg im Praxistest: 10 Tage Dauerbetrieb". Der andere Teaser mit dem Titel "Ferienhaus in Dänemarkt kaufen: Das müssen Hamburger beachten" und der Veröffentlichungs-Angabe "vor 5 Stunden" hat hingegen keinen Zusatz mit dem Namen des Autors.

In diesem Beispiel konnte er direkt einen Fehler aufdecken: Beide Artikel haben Autoren, aber nur bei dem unteren wird dieser auch angezeigt. Warum?

Ganz einfach: Im ersten Artikel ist der Link zum Autoren-Profil kaputt. Also wird kein Autor angezeigt.

"Learning: Ist Dein Autorenlink kaputt, kannst Du Deinen Namen nicht in News / Discover sehen."

bringt Johan das Problem auf den Punkt.

Äh, wie, was, Autorenseiten?! Hier kannst Du nachlesen, was ich im Februar 2023 zu diesem Thema zusammengetragen habe!

Revamp / Relaunch Reminder

Offenbar sagt man zu "Relaunch" mittlerweile "Revamp". Okay, meinetwegen. Egal, wie Du es nennst – hier ist Dein Reminder: Wenn Du an Deiner Seite was änderst, gibt es keine Möglichkeit, einen Traffic-Verlust zu verhindern. Das Risiko istimmer da. Und eigentlich ist es auch nicht verwunderlich beziehungsweise sogar ziemlich legitim. Denn:

"No. It means if you make a new website (revamping the old), you will have a new website.

You can't change everything and expect folks to act like nothing changed.

You're making changes for a reason, maybe to "improve your SEO" – it wouldn't be ok to have search engines ignore it."

schreibt John Mu bei Twitter und Barry Schwartz dokumentiert alle Aussagen seitens Google rund um dieses Thema in diesem Beitrag.

Was sonst noch los war und ist

  • Search Console x Merchant Center: Der Shopping Tab Listings Report in der Search Console wird erweitert und man kann die GSC-Property mit seinem Merchant Center Account verbinden, schreibt Google hier in der Ankündigung.

  • U.S. vs. Google: Ach ja, nebenbei ist Google auch noch in ein Gerichtsverfahren verwickelt:

"A court battle kicks off on Tuesday in which the U.S. Justice Department will argue that Google abused its power as a monopoly to dominate the search engine business.

It's the government's first major monopoly case to make it to trial in decades and the first in the age of the modern internet."

  • Canonical Bug in GSC: Angeblich war nur eine kleine Zahl an Domains betroffen, aber Google gesteht ein, dass es einen Bug in der GSC bezüglich Canonicals gab. Es wurden falsche Canonicals angezeigt und somit auch fälschlicherweise Signale für nicht-Canonicals beziffert. Upsi. Die Sache ist jetzt wohl gefixt, ich muss da aber direkt an die Probleme denken, die die Canonical Consolidation ja schon seit immer mit sich bringt.

  • August 2023 Core Update: Lily Ray hat das Google August 2023 Core Update für uns auseinandergenommen und analysiert.

  • September 2023 Helpful Content Update: Nora nimmt sich dem Google September 2023 Helpful Content Update an, welches kürzlich veröffentlicht wurde – einfach weiterscrollen!

The list goes on and on. Für heute reicht es aber. Ich hoffe, Du konntest etwas lernen und ein paar neue Erkenntnisse mitnehmen!

Nora Tiedemann
Nora Tiedemann
Junior Consultant
Noch ein Google Update: Help! 🥹

Oder auch: Google rollt direkt das nächste Update aus, wie am 14.09.2023 auf Twitter verkündet wurde:

"The September 2023 helpful content update is rolling out with an improved classifier. It will take about two weeks to complete."

Beim Helpful-Content-System handelt es sich um ein seitenweites Update. Der Algorithmus funktioniert dabei automatisch und ist keine Manual Action.

Folgende Änderungen und Neuerungen sind bisher bekannt.

Google hat die Richtlinien für KI generierte Inhalte gelockert

Vor Bekanntgabe des Updates hieß es in der Dokumentation:

"Google Search's helpful content system generates a signal used by our automated ranking systems to better ensure people see original, helpful content written by people, for people, in search results."

Google hat das "written by people" jetzt aber gestrichen. Nun heißt es:

"Google Search's helpful content system generates a signal used by our automated ranking systems to better ensure people see original, helpful content created for people in search results."

Das passt zu den im Februar veröffentlichten Richtlinien für KI-Content. Wichtig ist also nicht mehr zwingend, ob der Text von einem Menschen, einem Menschen mit maschineller Unterstützung oder nur von einer künstlichen Intelligenz verfasst wird, sondern nur, dass dieser hilfreich für User ist.

Hör auf, Content-Freshness zu faken

Google hat zudem nochmal deutlich gemacht, dass es keinen Mehrwert hat, die Aktualität der Inhalte auf Deiner Website zu faken):

"Are you changing the date of pages to make them seem fresh when the content has not substantially changed?

Are you adding a lot of new content or removing a lot of older content primarily because you believe it will help your search rankings overall by somehow making your site seem "fresh?" (No, it won't)"

Review durch einen Experten reicht

Um die Expertise in einem Themengebiet zu verdeutlichen, empfiehlt Google schon länger die Angabe eines Autoren. Hier wurde jetzt der Hinweis ergänzt, dass es reicht, wenn die Informationen durch einen Experten geprüft worden sind:

Falls Du auf der Suche nach einem coolen Beispiel zur Gestaltung von Autorenprofilen bist, empfehle ich Dir healthline.com. Die machen das wirklich großartig und haben auch tolle Beispiele, wie ein Experten-Review aussehen kann. Schau Dir zum Beispiel mal den Artikel "7 Yoga Stretches to Help You Shake Off Sickness" an. ❣️

Verschärfung der Vorschriften für Inhalte von Drittanbietern

Google warnt zusätzlich auch explizit vor der (ungeprüften) Bereitstellung von Drittanbieterinhalten. Diese Inhalte auf Subdomains oder Unterverzeichnissen können im schlimmsten Fall die ganze Website beeinflussen:

"If you host third-party content on your main site or in your subdomains, understand that such content may be included in site-wide signals we generate, such as the helpfulness of content.

For this reason, if that content is largely independent of the main site's purpose or produced without close supervision or the involvement of the primary site, we recommend that it should be blocked from being indexed by Google."

Dazu ergänzte Gary Illyes auf LinkedIn:

"We've heard (and also noticed) that some sites "rent out" their subdomains or sometimes even subdirectories to third-parties, typically without any oversight over the content that's hosted on those new, generally low quality micro-sites that have nothing to do with the parent site.

In fact the micro-sites are rarely ever linked from the parent sites, which don't actually want to endorse these often questionable sites.

The only reason the owners of these shady (?) micro-sites rent the sub-spaces is to manipulate search results."

Zusätzlich gibt es einen neuen Absatz dazu, was Du nach einem Traffic-Verlust machen kannst:

"If you've noticed a change in traffic you suspect may be related to this system (such as after a publicly-posted ranking update to the system), then you should self-assess your content and fix or remove any that seems unhelpful.

Our help page on how to create helpful, reliable people-first content has questions that you can use to self-assess your content to be successful with the helpful content system."

In meinem Artikel zum Helpful-Content-Update 2022 habe ich Dir zusätzlich wertvolle Tipps für Deine Inhalte gegeben. Schau gerne nochmal rein. 👀

Ich bin auf jeden Fall gespannt, was sich die nächsten 2 Wochen in den SERPs tut. Wichtig ist aber eigentlich (wie immer), dass Du Deine Inhalte nicht schreiben solltest, um Suchmaschinen zu gefallen, sondern für User und damit Deine Kunden und Kundinnen. 🤝

Christoph Hemmann
Christoph Hemmann
Consultant
I want to ride my bicycle - Teil 2

Aktuell verliert fahrrad.de deutlich an Sichtbarkeit im Verzeichnis /fahrraeder/ – vor allem bei Kinderfahrrädern. Bei genauer Betrachtung fällt auf, dass fahrrad.de zwei Verzeichnisse seit 2019 für Jugend- und Kinderfahrräder hat:

Es wird ein Chart von Sistrixs dargestellt, welches den Sichtbarkeitsverlauf beider Verzeichnisse seit 2019 aufzeigt.

Die URLs unterscheiden sich im doppelten Bindestrich im Namen und im Inhalt mit verschiedenen Unterverzeichnissen, sodass kein Duplikat-Content vorhanden ist. Spannend ist nur, dass die URL mit zwei Bindestrichen www.fahrrad.de/fahrraeder/jugend--kinderfahrraeder/ auf die URL mit einem Bindestrich www.fahrrad.de/fahrraeder/jugend-kinderfahrraeder/ per 301 weiterleitet. Hingegen leiten die Unterverzeichnisse von www.fahrrad.de/fahrraeder/jugend--kinderfahrraeder/ nicht weiter und werden auch aus dem Menü und intern verlinkt.

Schemadarstellung, wie die Verzeichnisse aufgebaut sind. Weiterhin zeigt es die 301 Weiterleitung der Verzeichnisse.

Die Unterverzeichnisse bei der URL mit doppeltem Bindestrich decken weiter Keywords wie Laufräder oder Dreiräder ab, wobei die Unterverzeichnisse der URL mit einem Bindestrich nur Marken abfängt.

Ob es einem alten technischen Fehler geschuldet ist oder ob es Absicht ist, dass die beiden Verzeichnisse existieren, lässt sich von außen nicht nachvollziehen. Auch seit wann die Weiterleitung existiert, ist unklar. Auffällig ist eben nur, dass seit April das weitergeleitete Verzeichnis massiv an Sichtbarkeit verliert (logisch) und das andere nicht steigt.

Die Unterverzeichnisse des weitergeleiteten Oberverzeichnisses fallen ebenfalls in der Sichtbarkeit.

Es wird ein Chart von Sistrixs dargestellt, welches den Sichtbarkeitsverlauf der Unterverzeichnisse und deren Verluste aufzeigt.

Im Gegenteil scheint von der unklaren Verzeichnisstruktur von fahrrad.de bei Kinderfahrrädern eher fahrrad-xxl.de zu profitieren.

Es wird ein Chart von Sistrixs dargestellt, welches den Sichtbarkeitsverlust von Fahrrad.de und dem Gewinn von Fahrrad-xxl.de deutlich macht.

Vergleicht man die thematischen Verzeichnisse der Domains miteinander, sieht man die klare Steigerung bei fahrrad-xxl.de (rot) zum Zeitpunkt des Verlusts bei fahrrad.de (blau).

Schauen wir uns dies auf Keyword-Ebene an, hat fahrrad.de Top-Positionen bei Keywords mit hohem Suchvolumina wie „Kinderfahrrad 20 Zoll" oder „Kinderfahrrad 16 Zoll" verloren und fahrrad-xxl.de Positionen gewonnen.

Spannend bleibt zu beobachten, ob der negative Trend der Unterverzeichnisses bei der URL mit doppeltem Bindestrich bleibt oder ob fahrrad.de Maßnahmen ergreift.

Meine Vermutung ist, dass fahrrad.de sich nicht traut, das Verzeichnis aufzuräumen, um keine Rankings zu verlieren. Solltest Du weitere Erkenntnisse haben, melde Dich gern bei mir.

Johan von Hülsen
Johan von Hülsen
Geschäftsführender Gesellschafter
Meine Takeaways von der SMX Advanced

Am 11.09. durfte ich im Vorfeld der SMX Advanced einen sehr intensiven Technical SEO Workshop halten. Das war ein fantastischer Einstieg. Und das komplett ohne AI. Der Workshop war ein toller Auftakt für mich, um meinen Kopf auf englisch umzustellen.

Die SMX Advanced ist nämlich ein wenig anders als andere Konferenzen in Deutschland:

  1. Es gibt nur einen Raum. (Okay. Da ist noch der PPC-Raum, aber wer interessiert sich schon dafür?) Das bedeutet: Du kannst nicht aussuchen. Das erleichtert das „Treibenlassen" auf der Konferenz enorm. Und es führt dazu, dass Du nicht immer nur Deinem Lieblingsthema hinterherrennst, sondern von überall Deine Synapsen befeuern lässt.

  2. Das Niveau der Speaker ist vortragstechnisch, aber auch inhaltlich, extrem hoch. Muss es auch, denn es gibt ja nur einen Slot.

  3. Alles auf englisch. Schließlich kommt die Audience dieses Mal aus 23 Ländern 🤯. Bei den Speakern war die Varianz nicht ganz so hoch. Aber: Bayern, Deutschland, USA, Niederlande, Großbritannien. Übrigens: Die Moderation von Dominik Schwarz war fantastisch.

Aber nun, without further ado: Was hab ich mitgenommen?

Ich habe fast alle Sessions gesehen. Hier meine (fast ungefilterten) Notizen:

André Morys:

Toller Auftakt. Conversion darf SEOs und SEAs nicht egal sein. Sein Beispiel „Girokonto eröffnen" und die dysfunktionale Landingpage der Commerzbank – die am Silodenken scheitert – war sehr lustig. Bis einem aufgeht, dass man auch selbst Kunden hat, denen das passieren kann. Sein Zitat dazu gebe ich mit Freude wieder:

"They are not responsible for this shit. They just executed badly."

Tom Anthony:

These: Entitäten in Schema.org sind limitiert. Google wird durch Vector Space die Lücken füllen. Darauf muss ich mich einstellen. Nicht mehr in Schema investieren, sondern andere Beschreibungen des gleichen Sachverhalts einfügen: „Hey ChatGPT, gib mir 5 Formulierungen für kindersicherer Pool, die ich auf einer Ferienhausseite unterbringen könnte, die aber das Wort kindersicher nicht enthalten."

Das war unterhaltsam, aber ich teile weder die Analyse, noch die Schlussfolgerung. Wenn die Entitäten in Deinem Bereich nicht ausreichen, um Deine gewünschten Produkte zu beschreiben, dann ist es relativ leicht, die in Schema.org unterzubringen. Schema hat weiterhin eine höhere Verlässlichkeit als Text Extraction. Und der Vorschlag, dass wir jetzt immer denselben Inhalt in noch mal anderen Formulierungen auf der Seite unterbringen, kann einfach nicht die Lösung sein.

Bastian Grimm:

... hatte einen tollen Primer zu AI in der Suche. Notizen habe ich mir keine gemacht. Nur noch mal ein Foto seiner Folie mit den Anforderungen an bessere Prompts:

  • Role

  • Context

  • Instructions

  • Format

  • Examples

  • Constraints

Lily Ray:

Auch Lily war zu AI unterwegs. Sie hat wieder den Preis für die mit Abstand hübschesten Slides gewonnen. Und der Vortrag war der nächste extrem souveräne Vortrag. Das sind Vorträge auf einem anderen Level, als wir das in Deutschland gewohnt sind.

Lily hatte sich vorgenommen, praktische Anwendungsfälle für ChatGPT, Claude, Bard und Bing zu Teilen. Sie hat mehrfach erwähnt, dass sie Claude lieber mag als ChatGPT und ich stimme ihr zu. Ich habe in den letzten Wochen viel mit Claude gearbeitet und das macht einfach Spaß.

Ein paar Workflows, die sie erwähnt hat und die ich smart fand:

Content vergleichen

Klopp den Content der Top3 oder Top5 Seiten in den Automaten und lass Dir einen Vergleich bauen.

Bei ChatGPT (ich glaube nur Pro) kannst Du die URLs angeben. Bei Claude musst Du den Umweg gehen, die Seiten einmal als PDF zu speichern. Aber der Aufwand lohnt sich.

Du kannst dann fragen:

  • Welchen Content haben diese Seiten, der in meinem Artikel fehlt?

  • Was machen diese Seiten, um Experience, Expertise Authoritiveness und Trustworthiness zu unterstützen?

  • Wie könnte mein Artikel verbessert werden, um mehr EEAT im Vergleich auszustrahlen?

  • Bitte liste 10 Gemeinsamkeiten und Unterschiede der Inhalte dieser Seiten!

Etwas, das Lily nicht erwähnt hat, ich aber wichtig finde, wenn man PDF oder Crawling anwirft: Du musst validieren, dass der Content korrekt extrahiert wurde.

Guidelines abgleichen

Vor einiger Zeit geisterte der Vorschlag durch die Blogs, dass man doch die Quality Rater Guidelines an ChatGPT geben sollte. Ich habe das für Quatsch gehalten, weil die viel zu ausführlich sind, als dass die LLMs das in ihrem beschränkten Speicher merken könnten.

Aber Lily hatte eine schöne Idee: Google hat einige Blogposts mit Fragen an Dokumente / Seiten zur Evaluation der Qualität. Diese Fragen kann man LLMs gut gegen den eigenen Content prüfen lassen.

Muster finden

Wir können ChatGPT die Headlines unserer erfolgreichsten Artikel geben und daraus Muster identifizieren lassen für neue Artikel. (Ich bin mir nicht sicher, ob sie sich auf Discover bezogen hatte, aber da ist der Impact natürlich besonders groß.)

Natürlich können wir diese Überschriften auch nutzen, um eine bessere Überschrift für einen neuen Artikel zu finden.

Oder, um eine Guideline daraus zu formulieren.

SGE

Anschließend hat Lily noch ihre Erkenntnisse zur SGE geteilt.

  1. SGE kann man beeinflussen durch den Content auf der eigenen Seite

  2. Wir können nicht nur beeinflussen ob wir angezeigt werden

  3. sondern auch, auf welche Schwerpunkte Google eingeht

  4. SGE ist nicht immer sooo schlau

Es wird also weiter SEO brauchen.

Joost de Valk:

"The Internet will use a fifth of all the world's electricity by 2025."

🤯

"Cloudflare says that 28% of web traffic is bot traffic. That means 5% of the world's electricity is bots.

It's likely that you will have a bigger impact on climate change by changing your robots.txt than by stopping to fly."

Joosts Botschaft: Bots crawlen dumm. Aber viel. Wir sollten daher unsere Defaults ändern: Nicht alles erlauben, sondern allen Bots alles verbieten, bis auf das, was wirklich gecrawlt werden muss.

Wenn China keine Rolle für Dich spielt, dann kannst Du Baidu blocken. SEO-Tools sowieso.

Martin Splitt:

"Tools are like street lights.

They guide your way. But only a drunk would cling to them."

Tech Audits sind nicht einfach. Es braucht Erfahrung und Mut, sich von der Checkliste zu lösen.

Ich würde jedes Wort dieses engagierten Vortrags unterschreiben.

Wenn wir uns nicht mit dem Geschäftsmodell und Aufbau der Seite auseinandersetzen, dann werden wir mit unseren Empfehlungen schnell dämlich aussehen. Gleiches gilt für Tools, die wir benutzen, aber nicht verstehen.

Wir sollten also viel mehr Dokumentation lesen (nicht nur die von Google, sondern auch die von Tool-Anbietern). Und wir sollten mehr mit den Menschen reden, die auch wirklich die Umsetzung machen.

Außerdem müssen wir unsere Vorschläge darauf prüfen, ob sie wirklich eine Traffic-Verbesserung für diese Domain bringen werden. Es geht nicht um viele Todos, sondern um die wichtigen, die wirklich etwas bringen.

"If everything is important, nothing is."

Auch ein wichtiges Zitat:

"Don't fix what's not broken. Search for impact."

Wenn eine SEO-Checkliste sagt, dass wir etwas ändern sollen, dann sollten wir das nur ändern, wenn es auch wirklich ein Problem verursacht. Und das können wir nur mit Erfahrung sagen. Denn je nach Seite sind 1 Mio. nicht indexierbare URLs ein Problem, oder nur eine Randnotiz wert.

Markus Hövener:

Bilder spielen eine wichtige Rolle in den SERPs. Und was Bilder angeht, können SEOs viel von Youtube lernen.

Markus hatte ein paar schöne Beispiele:

  • Das Bild neben einem Ergebnis ist abhängig von der Suchanfrage.

  • Bilder sollten, um neben der Suchanfrage zu erscheinen, größer als 200x200px sein.

  • Die Bilder neben den Suchergebnissen lassen sich mit CTAs vollballern, oder anderweitig auf die CTR optimieren.

  • Google nimmt meistens das erste Bild, aber das lässt sich beeinflussen. Insbesondere mit kontraststarken Bildern, die sich von den anderen auf der Seite abheben. Und mit Alt-Attributen.

  • Die SGE nimmt als Seitenverhältnis nicht 1:1, sondern eher 19:10. Außerdem scheint SGE grundsätzlich das og:image image zu wählen. Das wird natürlich ein wenig tricky zu optimieren.

Christopher Gutknecht und Danny Zidaric

haben zusammen vor allem einen Einblick in ihre Monitoring-Prozesse gegeben. Leider habe ich den ersten Abschnitt verpasst (um mich nochmal auf meine Präsentation vorzubereiten). So habe ich wenig von der Herleitung mitbekommen und eher die Beispiele.

Die waren aber schön gemacht: Wie kann ich mit einem schmalen Budget selbst Monitoring aufsetzen? Dafür haben sie sich ein paar Tools aufgesetzt, die die Daten an unterschiedlichen Stellen einsammeln und mit Alerts und Dashboards auf diese Daten wieder aufsetzen.

Tasks waren unter anderem:

  • Monitoring von Sitemaps

  • Auffälligkeiten in Logfiles

  • Crawling auf Merkwürdigkeiten

Bei den Vorträgen von David Mihm und Jan-Willem Bobbink war meine Konzentration raus.

David hat über einen Prozess für lokale Themenrecherche gesprochen. Und betont, dass wir nicht einfach unlokalisierte Keyworddaten für lokalisierte Keywords verwenden können. Insbesondere die Bewertung, wie schwer es wird, zu ranken, ist dann oft fehlerhaft.

Jan-Willem hat LLMs zum Glühen gebracht. Aber eigentlich war ich froh, dass der zweite Tag wenig mit AI zu tun hatte.

Johans Vortrag

Mit meinem eigenen Vortrag bin ich ganz zufrieden. Zwei Leaks in einem Vortrag sind aber für die Zuhörer ein sportliches Programm. Es schien der Audience aber gefallen zu haben und ich glaube wirklich, dass die Meisten Dinge mitgenommen haben, die sie noch nicht wussten. Zumindest einige SEOs, die ich sehr schätze, wussten nicht, was in dem Google Leak so alles versteckt ist.

Alles in allem: Eine tolle Konferenz!

Vorherige AusgabeNächste Ausgabe
 
Fragen? Immer gerne fragen!
Wir sind für Dich da.
Schreib uns gern jederzeit
eine E-Mail an kontakt@wngmn.de oder
ruf uns einfach kurz an: +49 40 22868040

Bis bald,
Deine Wingmenschen
Anckelmannsplatz 1, 20537 Hamburg, Germany
Wingmen Online Marketing GmbH Logo