Wirklich wahres Wingmen SEO Wissen für wache Webmarketer #138 |
|
🚪❌🍾 Ich glaube wir sollten den ganzen Laden dicht machen |
Man, man, man... Es ist kurz vor Redaktionsschluss und noch niemand hat die Einleitung für unseren Newsletter geschrieben. Jetzt sitzen wir hier in unserem Google Meet und müssen uns was aus den Fingern saugen. Geht ja immer noch schneller als ChatGPT prompten.
Na wenigstens sind die Artikel schon geschrieben. Und zwar dieses Mal für Dich:
Johan sagt Dir warum Google wegen ChatGPT noch nicht dicht machen muss
Jolle klärt die Kannibalisierung bei eingerückten Suchergebnissen
Behrend schreibt Dir etwas über das Caching bei Google
Nora denkt über iFrames und Structured Data nach
Caro erläutert die Vorteile von Tag-Seiten für Publisher
Viel Spaß beim Lesen,
Deine Wingmenschen
|
|
⁉️☠️#️⃣💥✊🤬 Wir müssen alle viel ruhiger werden. |
Früher, im Ehrenamt, da gab es Norbert. Norbert war 2m groß, hager und hatte eine tiefe, sonore Stimme. Alles, was Norbert tat, machte er voll fokussiert, etwas langsam und bedächtig. Ein großartiger Typ. Norbert hatte 2 Signature Moves:
Ein imaginäres Abmahnheft, in das er jedes Fehlverhalten eintrug: „Ich trage eine Abmahnung für Johan ein, weil er schon wieder jemanden beim Reden unterbrochen hat." --- Meistens hat es schon gereicht, wenn er so getan hat, als würde er schreiben, um Fehlverhalten anderer zu korrigieren.*
Wenn andere anfingen sich aufzuregen, dann sagte er immer: „Wir müssen alle viiiiieeel ruhiger werden." Auch das hat hervorragend funktioniert, um das Verhalten anderer zu korrigieren.
Wie dem auch sei. Immer wenn ich anfange mich aufzuregen, dann habe ich einen kleinen 2m-Norbert in meinem Kopf, der mich ermahnt, ruhig zu bleiben. Aber manchmal, da muss Norbert einfach verlieren.
Und obwohl ich mich nicht aufregen will und weiß, dass es nichts bringt: AAAAAAaaaaaaarrrrrrrrghhhh! Grmpf! ⁉️☠️#️⃣💥✊🤬
Aktueller Auslöser: Die Handelszeitung aus der Schweiz. Deren Artikel „Ein junger Programmierer beendet die Alleinherrschaft von Google" wurde mir in die Discover-Timeline gespült. Und hat sich ganz weich auf ein randgefülltes Fass von ChatGPT-Panikwellen und Euphorie gelegt.
Es ist ja normal, dass Laien manchmal Fehlschlüssen aufsitzen. Und komplett ungewohnt ist es auch nicht, dass Publisher Headlines etwas übertreiben, um Klicks zu generieren. Normalerweise ist der größte Teil meiner Aufregung, dass ich mich darüber aufrege, dass ich mich darüber aufregen möchte.
Doch dieses Mal: Was führt dazu, dass man so etwas schreibt, wenn man sich nur ansatzweise mit dem Thema beschäftigt hat?
Weil Google die besten Ergebnisse liefert, wird sie von Millionen Menschen genutzt. Doch die wissen noch nicht, dass die Alleinherrschaft von Google zu Ende ist.
Hier also nochmal der kurze Reminder, warum ChatGPT nicht das Ende von Google ist:
Es ist aktuell zu langsam: Warum sollte ich für viele Fragen länger als 1 Minute warten, wenn Googles Ergebnisse in weniger als einer halben Sekunde da sind?
Es ist zu intransparent: Wenn ich recherchiere, dann möchte ich Fakten und Nachvollziehbarkeit. Ich möchte nicht ein Ergebnis, dass ich dann im Einzelfall validieren muss.
Es ist zu teuer: Auch wenn die kolportierten Kosten für ChatGPT übertrieben sind (beispielsweise geht die Modellrechnung von AWS-Kosten aus, ChatGPT läuft aber auf Azure und dürfte durch die Microsoft-Beteiligung relativ günstig sein), so sind die Kosten doch deutlich höher als die einer Suchanfrage. Gleichzeitig ist das Erlösmodell noch nicht gefunden, die Monetarisierung deutlich schwieriger.
Google hat Möglichkeiten, damit umzugehen und ist technisch mindestens genauso weit (Du erinnerst Dich an das Interview mit einem Papierflieger?). Allerdings mit der Erfahrung der Qualitätsbewertung und dem Crawling des Internets ist Google in der Lage, aktuellere und besser gefilterte Trainingsdaten zu nutzen. Das gibt tendenziell einen deutlichen Vorsprung.
Ich bin total begeistert von ChatGPT. Ich sehe eine Menge Anwendungsfälle für die tägliche Arbeit (so lang man damit keine Strategie definieren möchte) und die Vereinfachung von Prozessen, aber wenn ich ChatGPT nicht vertrauen kann, weil selbst wenn Links oder Test-Cases angegeben sind, ich mich nicht darauf verlassen kann, dass die tatsächlich funktionieren, dann kann ich damit für viele Recherchezwecke nicht arbeiten.
Aber man muss doch die Möglichkeiten und Grenzen sehen. Auch wenn you.com, neeva.com und bing.com ChatGPT in die Suchergebnisse integrieren. Das ist ein mega Fortschritt. Und ich kann mir sehr gut einen Suchassistenten vorstellen, der mir hilft, die Ergebnisse feinzutunen. Aber solange mir ChatGPT nicht sagen kann:
wo ich aktuell eine Playstation 5 kaufen kann,
wie das Wetter morgen werden könnte,
und welche Serien aktuell interessant sein könnten,
so lange ist ChatGPT kein Ersatz für eine Suchmaschine.
Es ist immer wieder enorm zu sehen, wie stark das Aufbauen, Warten und Erhalten eines Index unterschätzt wird. Und am Ende: Shit in → Shit out.
Ich werde jetzt Norbert hören: Ich muss viel ruhiger werden. Ich zücke jetzt mein imaginäres Notizbuch und trage ein: „Abmahnung für Johan, weil er sich schon wieder darüber aufgeregt hat, dass jemand Quatsch ins Internet geschrieben hat, ohne nachzudenken."
* Ich habe aber glaube ich ein eigenes Regal in seiner Abmahnheft-Bibliothek.
|
|
Das eingerückte Labyrinth: Ist weniger mehr? ⚖️ |
Wir SEOs wollen normalerweise möglichst viel Raum mit unserer eigenen Domain in den Suchergebnissen einnehmen. Daher sind manche SEOs gar nicht mal so traurig, wenn sich ihre Inhalte kannibalisieren, sofern statt gar keiner plötzlich sogar mehrere URLs zu einer Suchanfrage auf der ersten Google-Seite ranken.
Schließlich bekommt die eigene Marke so jede Menge Aufmerksamkeit oder gar Klicks und die Konkurrenz findet kaum noch statt.
Mit Blick auf eingerückte Suchtreffer (Indented Search Results) ist Joy Hawkins in einem Beitrag für Searchengineland allerdings der Ansicht: Vorsicht, Mehrfach-Rankings können schaden!
Mögliche Gründe, warum Indented Search Results schädlich sein können:
Dass mehrere URLs derselben Domain ranken, könnte ein Signal dafür sein, dass Google nicht einschätzen kann, welche von beiden tatsächlich die richtige/bessere ist.
Suchende klicken womöglich auf das weniger relevante Ergebnis und schaden mit ihren aus der Enttäuschung geborenen Interaktionsdaten dem Ruf der Domain.
Somit finden Suchende auch nicht zum nützlichen Inhalt, der ihnen hätte helfen können.
Woran lässt sich erkennen, ob wir uns über die Indented Search Results freuen können oder nicht?
Joy zieht dafür durchschnittliche Klickraten aus der SERP zurate. Darunter ist auch die Sistrix-Studie, die auch wir hier bei Wingmen häufig als Gradmesser ansetzen, um zu ermitteln, ob eine Seite in den Suchergebnissen womöglich unterdurchschnittlich abschneidet.
Solange die Klicks aber für alle rankenden URLs reinkommen, musst Du Dich nicht absichtlich von der Mehrfachpräsenz auf der SERP verabschieden. Gut möglich, dass das eingerückte Ergebnis ein passendes Unterthema anteasert oder die Suchanfrage so vage und die Suchintention so unklar ist, dass Ergebnisse für verschiedene Suchbedürfnisse infrage kommen.
Generell gehe ich aber mit der Einschätzung mit, dass Kannibalisierung und fehlende Trennschärfe zwischen URLs meist ein Problem darstellen. Hier müssen wir jeweils sorgfältig überprüfen, ob wir tätig werden sollten.
|
|
Googlebot vergisst nichts |
Barry Schwartz hat freundlicherweise darauf hingewiesen, dass Pedro Dias darauf hingewiesen hat, dass die Google Search Central dokumentiert hat, dass die Google Dokumentation zu Crawl Budget und If-Modified-Since and If-None-Match ergänzt wurde.
Was ist If-Modified-Since und If-None-Match?
If-Modified-Since und If-None-Match sind Header-Angaben, die beim Thema Caching relevant sind. Wenn wir über E-Tags oder Statuscode 304 reden, dann hat es was damit zu tun.
Einfach gesagt: Ein Client kann beim Server nachfragen, ob er eine Ressource (in diesem Kontext das HTML, technisch aber auch Bilder, CSS- und JS-Dateien und so weiter), die möglicherweise nicht mehr aktuell ist, noch weiterverwenden kann. Wenn ein Client also eine Datei noch im Cache hat, aber nicht weiß, ob sie aktuell ist, weil z.B. das Expires Date abgelaufen ist, kann er bei einem Request:
mit If-Modified-Since das Abrufdatum der Version, die er im Cache hat oder
mit If-None-Match ein vorhandenes E-Tag
mitschicken. Wenn der Server anhand dieser Information feststellt, dass die Ressource sich seitdem nicht geändert hat, kann er, anstatt die Ressource nochmal zu schicken, einfach mit Status 304 antworten und dem Client so mitteilen, dass er die gecachte Ressource weiterverwenden soll.
Was lernen wir daraus?
Die Verwendung von If-Modified-Since und If-None-Match ist offensichtlich und wir wissen schon lange, dass Googlebot den Status 304 versteht. Ein paar Details kann man aber aus der Ergänzung der Doku schließen:
Es gibt einen gemeinsamen Cache für alle Googlebots inklusive AdsBot
Google vergisst niemals eine Ressource – oder glaubt zumindest, dass sie es sich länger merken, als Du/Dein Server Dir merken kannst, dass Google die Ressource schon kennt
"Independently of the request headers, you can send a 304 (Not Modified) HTTP status code and no response body for any Googlebot request if the content hasn't changed since Googlebot last visited the URL."
Hier die Quelle
Ob das nur für indexierbare Inhalte gilt oder für alle Ressourcen, die der Web Rendering Service abruft, ist nicht klar. Wir wissen, dass If-Modified-Since und If-None-Match generell für alle Requests des Googlebot funktionieren, und es macht Sinn für Google, dass der WRS einen gemeinsamen Cache für alle Bots vorhält.
Ob allerdings jedes Json-, Javascript- und CSS-Schnipselchen von Google quasi unbegrenzt aufbewahrt wird, sodass Du den Status Code 304 ohne If-Modified-Since und If-None-Match einsetzen kannst, würde ich nicht daraus schließen wollen.
Das ist aber auch eher eine akademische Frage. Die bereits standardisierten If-Modified-Since oder If-None-Match Angaben funktionieren auf jeden Fall und die genannte Möglichkeit, selbst die Googlebot Abfragen für Ressourcen zu tracken und unaufgefordert den Status 304 einzusetzen, ist ein riesengroßer Aufwand, ohne dass es wirklich was bringt. Die Domains, bei denen solch ein Overhead gegenüber sauberem Caching und E-Tag Logiken einen Vorteil bringt, kannst Du vermutlich an einer Hand abzählen.
|
|
Eine SEO-Liaison: iFrames und Structured Data 🫂 |
Ich habe Dir bereits von der Einbindung von iFrames mit dem Robots-Tag "indexifembedded" erzählt. Aber wie ist das eigentlich mit iFrames und strukturierten Daten?
Das hat sich auch die Userin Jennie Woods am 11.01.2023 auf Mastodon gefragt:
"Are iFrames no longer evil? Vimeo is providing VideoObject schema for embedded videos, but it's in an iFrame. Rich results and schema.org validate it. GSC enhancement report shows it as valid. Indexing report and URL Inspector show it.
As an #SEO my gut says no to iFrames, but is that old? Are iFrames OK for VideoObject schema now?"
Prompt bekam sie eine Rückmeldung von John Müller, dass Google strukturierte Daten auf einer Seite auslesen kann, auch wenn diese nur in einem iFrame enthalten sind:
"@jwoods Should be fine, Google can usually pick up the content from the iframed page, including the structured data.
This is particularly common for videos, where you don't often have a video object that you can just copy & paste into your pages, and you need to rely on iframe'd elements."
Aber was sind eigentlich die Vor- und Nachteile von iFrames 🤔
Vorteile
Praktisch für Elemente aus externen Quellen, wie beispielsweise YouTube-Videos
Geringer Arbeitsaufwand bei der Einbindung
Externe Inhalte beanspruchen keinen Speicherplatz auf Deiner Website
Um beispielsweise ein Video anzusehen, muss ein Nutzer Deine Seite nicht verlassen
Strukturierte Daten können ausgelesen werden
Nachteile
Wenig Kontrolle über die extern eingebundenen Inhalte und deren Funktionalität
iFrames können ein Sicherheits- und Datenschutzrisiko darstellen, indem sie Phishing betreiben oder Nutzerdaten abfangen
Kein Setzen von Bookmarks auf die iFrame-Inhalte möglich
Unterschiedliche Darstellung der Inhalte in verschiedenen Browsern
Du siehst, iFrames haben positive sowie negative Eigenschaften. Am Ende kommt es immer auf den jeweiligen Use Case an. 😉
|
|
Tee trinken oder Tatendrang für Themen-Tags? |
Wie sehr vertraut Dir Google zu Deinem (News-)Thema?
Was kannst Du Google vorweisen, um von Deiner Autorität zu überzeugen?
Und was fehlt Dir eigentlich noch, um diese dauerhaft unter Beweis zu stellen?
Barry Adams verrät Dir in seinem Artikel von letzter Woche, warum Artikel-Tags und News-Kategorisierungen so bedeutsam für News-SEO und die thematische Autorität sind.
Für Dich als SEO ist es schwierig, Deine eigene thematische Autorität oder Deiner Konkurrenten zu ermitteln. In der SEO-Branche gibt es lediglich Theorien über eine solche Metrik, aber keine offizielle Veröffentlichung seitens Google. Vermutlich sind die verschiedenen Themen, zu denen Autorität aufgebaut werden kann, stark an den Themen für Discover orientiert und hängen mit verschiedenen Kriterien zusammen, aber einmal von vorne:
Für eine gute thematische Autorität benötigst Du erstmal Content zu Deinem Thema. Klingt soweit logisch. Aber Achtung - ganz so einfach ist es nicht: Google schaut natürlich auch auf die Qualität und Expertise Deines Contents. Nicht jeder kann (gut) über Technik, Sport oder Wirtschaft schreiben. Da muss schon etwas dahinterstecken. Aber wie viel Content pro Thema wird benötigt? Welche Art und Qualität von Content ist die Richtige? Und als wäre das nicht schon genug, reicht selbst qualitativer und expertiger Content nicht mehr ganz aus:
Es kommt auch auf die Seitenstruktur und Kategorisierung des Contents an, damit es Google auch versteht und die Expertise und Autorität richtig bewerten kann.
Zunächst sollten Deine hauptsächlichen Themenbereiche als News Publisher in Deiner Hauptnavigation wiederzufinden sein, damit Du Google und Deiner Leserschaft direkt zeigst, worum es im Grunde bei Dir geht. Hiermit stellst Du Deine journalistischen Schwerpunktthemen klar heraus. Bei der Definition Deiner Kategorien kann Dir auch immer eine Analyse Deiner Informationsarchitektur helfen, indem Du die Menge und Qualität der Artikel pro Themenbereich betrachtest und so Schwerpunkte identifizierst.
Für Barry Adams gehören Tag-Seiten zur Seitenstruktur eines News-Publishers dazu - jedoch nicht in die Hauptnavigation, sondern "nur" durch Verlinkungen von Artikelseiten auf thematisch passende Tag-Seiten.
Barry hat in seinem Artikel viele wichtige Tipps rund um die Nutzung Tag-Seiten. Für Dich einmal das Wichtigste zusammengefasst:
Auswahl und Menge
Für die Erstellung von Tag-Seiten sollte darauf geachtet werden, dass zu dem jeweiligen Thema auch regelmäßig Content publiziert wird, diese Artikel nicht bereits durch einen anderen Tag abgedeckt werden und insgesamt ein Mehrwert als Artikel-Sammlung des Themas geliefert wird. → Tag-Seiten mit hoher Anzahl an Artikel sind ein Indiz für Autorität, während eine geringe Anzahl genau das Gegenteil demonstriert.
Tag-Seiten mit weniger als 5 Artikeln eignen sich vermutlich für die Abschalten-Liste, außer es gibt Pläne, dieses Thema künftig weiter auszubauen.
Bei der Tag-Zuordnung von Artikeln wiederum rät Barry zu keiner bestimmten Anzahl an Tags pro Artikel und viel mehr zur vorsichtigen Auswahl, sodass auch wirklich nur Themen einem Artikel zugeordnet werden, die auch in irgendeiner Weise behandelt oder diskutiert werden und nicht nur eine kurze Erwähnung finden!
Vor allem Kontinuität an Expertise und Autorität für ein bestimmtes Thema ist für ein gutes Ranking in Google News/Discover wichtig.
Mehrere Tag-Seiten (verschiedene Begriffe oder Bezeichnungen) für ein gleiches Thema sind zu vermeiden bzw. zu konsolidieren → Du solltest Dich für eine Bezeichnung entscheiden - und zwar die auf dem Markt am meisten verwendete (Hier kannst du Google Trends heranziehen).
Eine URL-Struktur mit separatem First Folder für die Tag-Seiten (/tag/, /thema/) kann Dir dabei helfen, Dopplungen zu vermeiden (ansonsten passiert es schnell mal, dass Du ein Thema unterhalb mehrerer Themenbereiche zuordnest).
Beschreibungstexte für jede Tag-Seite sind hilfreich, aber kein absolutes Muss und ab einer gewissen Menge nur noch schwer zu handhaben (Priorisierung nach Wichtigkeit der Tag-Seite kann Dir hier helfen, eine Auswahl für die Erstellung von Tag-Seiten zu treffen).
Interne Verlinkung
Die Tag-Links auf dem Artikel-Template sollten sichtbar und klickbar sein - ob oberhalb oder unterhalb des Artikels ist relativ egal. Barry bevorzugt unterhalb des Artikels, da die meisten Leser sie dort erwarten und die meisten News-Publisher sie dort platzieren.
Tag-Seiten über eine im Footer verlinkte HTML-Sitemap (dediziert für Tag-Seiten) zusätzlich für Google auffindbar zu machen, kann nie schaden, aber sollte nicht die wichtigen Verlinkungen auf Artikel-Ebene ersetzen.
Die wichtigsten Tags eines Artikel sollten auch aus dem Text heraus verlinkt werden, da sie einen höheren Wert gegenüber der anderen Links darstellen und somit besser die jeweilige thematische Autorität stützen können.
Crawling und Indexierung
Reminder: Crawl- und Indexierbarkeit von Tag-Seiten sind Grundvoraussetzung für eine Verarbeitung und Bewertung seitens Google.
Die Erreichbarkeit der Verlinkungen von Artikeln auf einer Tag-Seite ist ebenfalls wichtig (Barry empfiehlt mind. 20 Artikel-Links pro Seite).
Hierbei solltest Du darauf achten, dass der Großteil der Links nicht durch JavaScript für Google verborgen bleibt. Bei einer hohen Anzahl an Artikeln pro Tag und Nutzung von Paginierung sollten somit auch alle paginierten Tag-Seiten für Google crawlbar und indexierbar sein.
Wie sieht es bei Dir aus? Arbeitest Du mit Tag-Seiten? Und wenn ja, wie gehst Du mit ihnen um?
|
|
|
Fragen? Immer gerne fragen!
|
Wir sind für Dich da.
Schreib uns gern jederzeit
eine E-Mail an [email protected] oder
ruf uns einfach kurz an: +49 40 22868040
Bis bald,
Deine Wingmen
|
|
Anckelmannsplatz 1, 20537 Hamburg, Germany
|
|