Wirklich wahres Wingmen SEO Wissen für wache Webmarketer #108
|
|
☀️ SEOmmer-Sonnenwende
|
Heute ist der längste Tag des Jahres. Damit Du möglichst viel von der Sonne genießen kannst, gibt es hier die kürzeste Einleitung des Jahres. Heute gibt's:
-
Jolle tanzt den SEO-Content-Twist
-
Andreas findet: noindex - no problem
-
Saskias Titles sind immer up to date
-
Behrend gibt ein kurzes Update zu Cookies, Consent & Co
-
Caro macht einfach mal - oder auch nicht
Ach ja - eine kleine Terminankündigung haben wir auch noch im Gepäck.
Viel Spaß beim Lesen
Deine Wingmenschen
|
|
Content-Agentur mit SEO-Twist
|
Das Wichtigste zu Beginn:
Case Study: Themencluster funktionieren (also jedenfalls hier)
Content-Cluster mit gut recherchiert und geschriebenen Hub- und Spoke-Artikeln zahlen auf die Autorität einer Publikation ein, weil sie Themenexpertise demonstrieren. Sie bringen organischen Traffic und bieten so eine lukrative Investment-Alternative zu gekauften Klicks per Anzeige. Trotz Recherche ist der Erfolg jedes einzelnen Content-Stücks nicht planbar. Um experimentieren und lernen zu können, was funktioniert, muss man einiges an Inhalten produzieren. So lässt sich die
Case Study "How 360Learning Grew from 0 to 76k Pageviews Through SEO Experimentation" von Animalz zusammenfassen
.
Investitionen ins Content-Team lohnen sich (also jedenfalls hier)
Dass 360Learning Content als Investition verstehen, lässt sich auch daran ablesen, dass sie als Firma mit nur einer Content-Person eine Agentur wie Animalz ins Boot geholt und innerhalb von anderthalb Jahren parallel zum eingehenden Content-Ertrag ein Content-Team mit zehn Personen aufgebaut haben, wenn wir dem Artikel Glauben schenken.
Aber Jolle, wieso feierst Du diese Agentur so ab?
Beichte: Ich mag das Animalz-Blog fast unabhängig vom Thema des jeweiligen Posts. Die Content-Marketing-Agentur nimmt den Standpunkt ein,
SEO-Diss als Koketterie
Die Agentur bürstet zwar immer wieder gerne gegen den Strich mit "Thoughtleadership"-Artikeln wie
"The 'Google Knows Best' Fallacy"
, um zu demonstrieren, dass sie nicht blind irgendwelchen Branchen-Best-Practices und Suchvolumen-basierten Briefings folgt...
...aber den Wert von SEO versteht sie genau.
Das ist für mich der große Unterschied zu Redaktionen und Content-Marketern im DACH-Raum, um illegitimer Weise mal alle ganz grob über einen Kamm zu scheren. Im deutschsprachigen Raum hält die schreibende Zunft SEO häufig für die Ausgeburt des Ausverkaufs und den Pakt mit dem Teufel, ohne sich näher damit zu beschäftigen, in welchem Kontext SEO hilfreich und auch für die Leser und Leserinnen nützlich sein kann.
Animalz kokettiert dagegen damit, mehr zu liefern als stumpfe Keyword-Recherche und das Abarbeiten von SEO-Content-Briefings, während sie aber genau wissen, wie sie Chancen für organische Rankings identifizieren und entsprechend optimierte Inhalte produzieren.
Oder kürzer: Man kann sich aus guten Gründen gegen SEO entscheiden und Inhalte auf andere Ziele hin schreiben. Die diffuse Angst, für eine Maschine zu schreiben, ist für mich allerdings kein guter Grund.
|
|
noindex-Anweisung belastet das Crawl Budget “kaum” laut John Müller
|
Immer wieder kommt der Begriff Crawl Budget bei uns SEOs ins Gespräch. Wir müssen unbedingt das Crawling Budget im Griff behalten. Was jedoch nach Aussagen von John Müller nicht einmal von 100.000 URLs einer Domain beeinträchtigt werden würde. Und wenn Deine Website nicht mit irgendwelchen wilden Parametern zigtausende URLs erzeugt, die denselben Inhalt ausliefern, sollte dies auch weiterhin kein Problem darstellen. Jedoch sollte man eigentlich bei der Erstellung von URLs, sei es per Hand oder automatisiert, auch ein Konzept besitzen.
Letztendlich geht es hier ja nicht nur um die Erstellung der URL, deren Inhalt und die Entscheidung, ob der Inhalt ranken soll oder nicht, sondern auch um die Frage der internen Verlinkung und wie diese sichergestellt wird.
Was ist nun, wenn man eine Domain mit 70.000 indexierbaren URLs hat, der etwa 1.4 Mio nicht indexierbare URLs gegenüberstehen? Besteht hier das Risiko, dass die kleinere Gruppe der wichtigen indexierbaren URLs benachteiligt wird und die größere Gruppe der noindex-URLs ihre zügige Verarbeitung behindert? Denn letztlich muss Google ja alle URLs crawlen, um auch bei den 1.4 Mio nicht indexierbaren URLs das "noindex" zu erkennen, zu verarbeiten und in zeitlichen Abständen erneut zu prüfen.
Das wollte Praveen Sharma auf Twitter von John Mu wissen
.
"A small Q: A website has some 70K valid indexed URLs. But also has 1.4M URLs that are tagged as noindex. Though these are not indexed but crawled occasionally. Can these nonindexed URLs impact the crawl budget negatively in the future?"
Die Antwort von John Müller ist jedoch eine kleine Überraschung: Er sagt, dass man sich in so einem Fall nicht so große Sorgen um das Crawl Budget machen sollte und in seiner Berechnung die 1.4 Mio. URLs so behandeln und einschätzen sollte, als wenn diese 1 Mal im Jahr von Google gecrawlt werden würden.
"Unlikely. Consider how many server requests you have per minute, and how many this would at most add, assuming they're crawle 1/year (and most won't get recrawled at all. "
Die spannende Frage stellt sich nun, ob Google diese große Menge an URLs nur in der Berechnung des Crawl Budget so behandelt oder ob Google im Regelfall diese URLs wirklich so selten crawlt, wie John Müller es beschrieben hat. Sicherlich ist hier die richtige Antwort (Wer hätte es gedacht?) "It depends".
Denn auch in diesen Überlegungen müssen wir so etwas wie die Gesamtmenge aller URLs einer Website in Betracht ziehen. Sicherlich ist Google bei kleineren Websites, die eh das Crawl Budget nicht ausreizen, auch bereit, Seiten mit einer "noindex"-Kennzeichnung häufiger zu crawlen, als bei Websites, die sowieso schon mit ihrem Crawl Budget zu kämpfen haben.
Aus diesem Grund sollten größere Websites unbedingt einen Blick auf die Gesamtanzahl der URLs, den Crawl-Bericht in der Google Search Console haben und schauen, ob Google überhaupt eine Chance hat, alle URLs in einem angemessenen Zeitrahmen zu crawlen. Zusätzlich wird hier auch sehr deutlich, dass wir Änderungen an der Indexierung von Seiten sehr sorgfältig erarbeiten und überwachen müssen, da Änderungen in unseren Robots-Anweisungen doch unter Umständen lange benötigen, um von Google verarbeitet zu werden. Gerade Fehlkonfigurationen können hier fatale Auswirkungen haben, die es unter allen Umständen gilt zu verhindern.
Man sollte sich selbst aber auch die kritische Frage stellen, warum eine Website so viele URLs besitzt, die nicht ranken sollen. Gibt es ggf. bessere Lösungen in der Umsetzung, um diese URLs vor Suchmaschinen zu verstecken? Die Maskierung via PRG-Pattern könnte hier eine adäquate Lösungsansatz sein.
|
|
Die Wichtigkeit der Aktualität im Title
|
Die Kollegen von SearchPilot haben Anfang Juni eine Umfrage gestartet, die darstellen soll, welche Auswirkungen es auf den organischen Traffic hätte, würde man das exakte Datum, bestehend aus Monat und Jahr durch "täglich aktualisiert" ersetzen (Bezieht sich auf Listing Websites).
Spoiler, auch wenn es den einen oder anderen überraschen mag: Ersetzt man Monat und Jahr durch den Zusatz "täglich aktualisiert" oder Ähnliches, dann hat das, entsprechend der Studie, positive Auswirkungen auf den organischen Traffic.
Generell bekannt ist, dass die Anpassung der Title Tags zu den Low Hanging Fruits gehört und mit minimalem Aufwand an der einen oder anderen Stelle ein recht großer Effekt erzielt werden kann. Insbesondere durch die Nutzung von Aktualität, denn sowohl die Nutzer als auch die Suchmaschinen sprechen sehr gut auf Hinweise zur Aktualität an. Um die Aktualität aufzuzeigen, wird häufig die Methode genutzt,
den aktuellen Monat und das dazugehörige Jahr
in den Title zu integrieren:
Doch zu Recht wurde die Frage gestellt, was denn ist, wenn die Inhalte mehrmals im Monat aktuell gehalten werden, ob der Zusatz, dass der Artikel täglich oder innerhalb der Woche bereits aktualisiert wurde, keinen bedeutenden Benefit darstellt?
SearchPilot hat es über
folgenden Zusatz im Title
getestet:
Es zeigt sich, dass Google die Änderung durchaus anerkennt und auf der SERP anzeigt, jedoch nicht zu 100% und durchgängig. Doch auch trotz dieser "Einschränkung" zeigt sich, dass durch das Hinzufügen des Title-Tags "täglich aktualisiert" ein organischer Traffic Anstieg von ca. 11% entstanden ist.
Entsprechend ist davon auszugehen, dass Aktualität sowohl für den Nutzer als auch für die Suchmaschinen eine hohe Relevanz darstellen und häufiger die Option der Optimierung von Title Tags genutzt und getestet werden sollte, um größtmöglichen Traffic zu generieren und sich von der Konkurrenz abzuheben.
|
|
Datenschutz Update
|
In den letzten Wochen hat sich in der Welt der Webanalyse und des Datenschutzes so einiges getan. Hier nur die zwei wichtigsten Punkte:
CNIL hält es für möglich, Google Analytics legal einzusetzen... Aber zu welchem Preis?
Frankreichs Datenschutzbehörde
CNIL hat einmal klargestellt, unter welchen Umständen der Einsatz von Google Analytics noch legal sein könnte
. Unser Freund
Justus hat das freundlicherweise auf Linkedin nochmal auseinandergenommen
.
Die Quintessenz ist folgende:
Mit Server Side Tagging ist ein GA Betrieb in der Theorie noch möglich, aber die Daten müssen sauber zensiert werden. Die Liste der Informationen, die Google nicht bekommen darf, ist lang. Was übrig bleibt, ist vermutlich kaum noch oder gar nicht mehr auswertbar.
Beispielsweise werden Informationen wie Quelle und Medium und sämtliche Tracking-Parameter wegfallen. Also keinerlei Information mehr darüber, über welchen Kanal, geschweige denn welche Kampagnen, der Traffic kommt. Über so etwas wie Verknüpfungen mit Google Ads für Remarketing Zielgruppen braucht man dann nicht einmal mehr nachzudenken.
Dabei ist es übrigens egal, ob der Consent des Nutzers vorliegt oder nicht.
Diese Erkenntnisse sind vermutlich auch auf andere Tracking-Tools, die mit amerikanischen Konzernen assoziiert sind (Facebook Pixel, Linkedin Insights etc...), übertragbar.
Inwiefern eine selbstgehostete oder durch ein europäisches Unternehmen angebotene Webanalyse den gleichen Anforderungen gerecht werden müssen oder ob man für Matomo, Etracker und Co. noch eine gewisse Auswertbarkeit in der Webanalyse erhalten kann, steht noch aus.
Firefox Total Cookie Protection für alle
Schon
seit März 2021 war es klar, dass dieser Zeitpunkt kommen würde
. Jetzt ist es soweit:
Firefox kastriert Third Party Cookies
. Der
ETP Strict Mode
ist nun für alle Firefox Nutzer per default aktiv. Damit sind Third Party Cookies nur noch für den Kontext der Domain existent, von der aus sie gesetzt wurden. In der Folge sind Third Party Cookies für domainübergreifendes Tracking von Nutzern in Firefox nicht mehr nutzbar.
Zwar
hat Firefox auch nicht mehr den Marktanteil, den sie mal hatten
. Trotzdem sind 7,6 % der Nutzer, die es bislang noch nicht geschafft haben, auf Third Party Pixel zu verzichten, für Ad-Tracking Systeme schmerzhaft.
|
|
Einfach mal machen, könnte ja gut gehen. Oder doch nicht?
|
Hast Du Dich schonmal gefragt, wie Dein Navigationsmenü optimalerweise aussehen sollte? Wie Du Deine Menüpunkte am besten strukturierst? Und wie das Ganze bestenfalls designed sein sollte?
Es gibt viele unterschiedliche Möglichkeiten, ein Navigationsmenü zu gestalten. Letztendlich kann es jedoch nur in eine bestimmte Richtung gehen, für die Du Dich bewusst entscheiden musst. Denn bei jeder Entscheidung für einen bestimmten Gestaltungspart entscheidest Du Dich auch gegen die entsprechend gegensätzliche Gestaltungsmöglichkeiten.
Dan Brown geht in seinem Artikel "
Four Tradeoffs When Designing Navigation Menus
" auf vier solcher Kompromisse bei der Gestaltung ein und wie Du dadurch einen Fokus für Dein Navigationsmenü setzen kannst:
1. Informationsbreite vs -tiefe
Wenn Du Dich dafür entscheidest, dem User Deine ganze Breite an Informationen zu zeigen, befüllst Du das Navigationsmenü mit all Deinen Kategorien der ersten Ebene, gehst aber nicht in die Tiefe.
Bei einem so breiten Navigationsmenü ist es besonders wichtig, die richtige Reihenfolge zu wählen, sodass auch die wichtigsten Kategorien für den User leicht ersichtlich sind.
Gehst Du in die Tiefe, dann führst Du in Deinem Navigationsmenü nur eine Auswahl auf Kategorien der ersten Ebene mit an und schließt dafür die jeweils dahinter liegenden Ebenen mit ein. Damit zeigst Du dem User bewusst Themenbereiche Deiner Website in voller Gänze und sorgst dafür, dass auch direkt tiefer eingestiegen werden kann. Dabei musst Du Dich entscheiden, ob Du allen Ebenen visuell gleich viel Gewicht geben oder ob Du die Hierarchie auch durch entsprechendes Design veranschaulichen möchtest.
2. Orientierung vs Vertrautheit
Anhand der Gestaltung und Strukturierung Deines Navigationsmenüs kannst Du entweder für einen leichten Einstieg für neue User oder für einen leichten Zugang für vertraute User sorgen. Das bedeutet, dass Du Content, die der Orientierung und Erläuterung Deines Produktangebots dienen, in Reihenfolge und Design hervorhebst, wenn Du Dich primär an neuen Kunden ausrichten möchtest. Bei einer Fokussierung auf Deine vertrauten User solltest Du dann das Gewicht eher auf die Schlüsselkategorien legen.
Als Entscheidungshilfe für den zu treffenden Kompromiss kannst Du auch immer gut mit einbeziehen, in welche Seitenbereiche neue potenzielle Kunden auf Deine Website einsteigen. Darüber kannst Du gut beurteilen, ob das Navigationsmenü für Deine Websitebesucher wichtig ist oder die meisten sowieso schon auf der entsprechend richtigen Landingpage landen und Dein Navigationsmenü dann eher auf die Bestandskunden ausgerichtet sein darf.
3. Erfüllung 1 vs mehrerer Zwecke
Dan betont, dass ein Navigationsmenü theoretisch immer lieber auf die Erfüllung eines bestimmten Zwecks fokussiert sein sollte anstelle eines überfüllten Menüs, welches alles leisten können soll. In der Realität sieht es etwas anders aus und man kommt oftmals nicht drum herum, mehrere Zwecke zu verfolgen. In so einem Fall wird zum Beispiel neuer Content als Add-on Information im Menü mit angeteasert. Oftmals spielen dann auch mehrere Stakeholder bei, sodass die Gestaltung immer schwieriger wird, wenn man allen gerecht werden muss.
4. Inhaltsbeschreibung vs Handlungsbeschreibung
Mit den einzelnen Punkten in Deinem Navigationsmenü kannst Du entweder den jeweiligen Inhalt oder die damit verbundene mögliche Interaktion des Users beschreiben. Dies ist eine Entscheidung, die Du für Dich und Deine Zielgruppe treffen musst, je nachdem ob es zu Deinem Produkt und Deinen Usern passt, sie durch das Navigationsmenü zur Interaktion anzuregen oder sie eher explizit über Inhalte der einzelnen Kategorien zu informieren. Dabei kannst Du durch eine präzise Formulierung der Kategoriebezeichnungen möglichst genau kommunizieren, was bei den einzelnen Punkten zu erwarten ist.
Diese vier Punkte helfen Dir dabei, bei der Gestaltung Deines Navigationsmenüs einen klaren Fokus zu setzen, sodass es bei dem User letztendlich nicht zu Verwirrungen kommt. Dabei wirst Du nicht drum herum kommen, auf die beschriebenen Kompromisse und die Bedürfnisse Deiner Zielgruppe einzugehen.
|
|
Termine, Termine, Termine
|
Falls Du regelmäßig bei der Daily Dose of SEO von Ryte mit Marcus und Alex dabei bist oder gar auf dem WUX Discord Server mit dabei bist, hast Du es sicher schon mitbekommen: Der erste WUX (Website User Experience) Stammtisch findet in Hamburg statt! Und zwar am 30. Juni - also schon ganz bald.
Die Anmeldung läuft über die SEO Meetup Hamburg Gruppe.
Achtung: Die Plätze sind streng limitiert. Also schnell zusagen - aber nur, wenn Du wirklich dabei sein kannst.
|
|
Fragen? Immer gerne fragen!
|
Wir sind für Dich da.
Schreib uns gern jederzeit
eine E-Mail an
[email protected]
oder
ruf uns einfach kurz an:
+49 40 22868040
Bis bald,
Deine Wingmen
|
|
Anckelmannsplatz 1, 20537 Hamburg, Germany
|
|