Wirklich wahres Wingmen SEO Wissen f├╝r wache Webmarketer #177
Wingmen Online Marketing GmbH Logo
Matthias P├╝lz
Matthias P├╝lz
Junior Consultant
­čŹé SEO-ktober: M├Âgen die Bl├Ątter fallen, Deine Rankings aber nicht

Der Oktober ist in vollem Gange. Die Bl├Ątter f├Ąrben sich und strahlen in den buntesten Farben. Die Tage werden k├╝rzer, die N├Ąchte l├Ąnger und dunkler und inzwischen haben sogar die Temperaturen langsam begriffen, dass der Sommer vorbei ist.

Damit Du in dieser k├╝hlen Jahreszeit genug Lesestoff hast, pr├Ąsentieren wir Dir nat├╝rlich auch diese Woche wieder die frischesten und hei├česten Themen aus dem SEO-Ofen.

Also hol dir eine Tasse Tee, wickel dich in deine Kuscheldecke und dann wirf einen Blick auf unsere f├╝nf Artikel. Diesmal mit von der Partie sind:

  • Philipp, der von der bunten Vielfalt der SGE (und einem kochenden Wasserschwein) begeistert ist

  • Hannah, die von ihren goldenen Learnings und Einblicken der diesj├Ąhrigen NESS berichtet

  • Jolle, der beim Blick in die GSC gelegentlich fast die Glotzeb├Âmmelchen aus dem Antlitz gleiten

  • Johan, der Dir unter anderem verr├Ąt, was Bots und der Flugverkehr gemeinsam haben

  • Nochmal Philipp, der sich die philosophische Frage "Sitemap oder nicht Sitemap" stellt

Wir hoffen, unser heutiger Newsletter wird Dich ebenso verzaubern wie die goldenen Oktober-Landschaft drau├čen vor Deinem Fenster. In diesem Sinne:

Viel Spa├č beim Lesen!

Deine Wingmenschen

Was wir gelesen haben
 Philipp G├Âtza
Philipp G├Âtza
Junior Consultant
Die SGE wird zum Schweizer Taschenmesser

Am Donnerstag Abend unserer Zeit hat Google nochmal einen f├╝r die SGE rausgehauen. In Kurzform habe ich dazu etwas auf LinkedIn geschrieben, die l├Ąngere Form bekommst Du jetzt hier serviert.

Bilder in der SGE generieren

ChatGPT hat ebenfalls letzte Woche eine Funktion zur Bildgenerierung mit DALL-E bekommen.

Kaum integriert, k├╝ndigt Google eine ├Ąhnliche Funktion an. ├ähnlich wie bei Midjouney und anderen Tools gibt es vier Ergebnisse f├╝r Deinen Prompt:

Ein Screenshot aus der SGE, bei das Query "draw an image of a capybara wearing a chefs hat and cooking breakfast" eingegeben wurde. Das Ergebnis hat vier Bilder erstellt, die den Inhalt des Prompts wiedergeben.

Ich habe direkt am Donnerstag und auch gestern Abend probiert, die Funktion zu nutzen. Sie war f├╝r mich (noch) nicht verf├╝gbar. In der Ank├╝ndigung war der Wortlaut folgender:

"So beginning today, we're introducing the ability to create images with our generative AI-powered Search experience (SGE)."

"Today" ist bei Google also ein dehnbarer Begriff. Ausgerollt wird dieses Feature in den USA (als Teil des SGE Search Lab Testings) und nur f├╝r Nutzer:innen, die 18 Jahre oder ├Ąlter sind.

Die Funktion soll auch in der Google Bilder-Suche verf├╝gbar sein. In einer Kachel wird auf die neue Funktion hingewiesen:

Ein Screenshot aus Google Bilder, in dem wie bisher Kacheln f├╝r Bildergebnisse dargestellt werden. Eine Kachel f├Ąllt auf, da diese eine ├ťberschrift "Create something new" enth├Ąlt und ein Button dargestellt wird, der Usern erm├Âglicht, ein Bild basierend auf der Suchanfrage zu generieren.

Google schreibt, dass es Sicherheitsmechanismen geben wird, die die Erstellung von irref├╝hrenden und gef├Ąhrlichen Inhalten vermeiden sollen. Bei vielen AI-Themen hat genau das hin und wieder nicht funktioniert und durch Tricks konnten derartige Sicherheitsmechanismen ausgehebelt werden. Beispielsweise wurden Hitler & Co. als gro├čartige Anf├╝hrer der Menschheit gelistet. Bei ChatGPT lassen sich auch Ergebnisse provozieren, wenn man nur wei├č, wie der Prompt geformt sein muss. Mal schauen, ob das bei der Bildgenerierung in der SGE besser gelingt.

Was ich auch erw├Ąhnenswert finde:

"Every image will have metadata and embedded watermarking to add transparency that the images were created with AI."

Ich w├╝rde mir bei Texten und Bildern w├╝nschen, dass bei problematischen Outputs (wie z. B. diesem "optimierten Bild") hergeleitet werden kann, wie dieser zustande kam. Und woher die Informationen stammen. Das wird es aber vermutlich nie geben. KI muss sich also in dem Fall vor keinem Gericht verantworten.

├ähnlich wie in den Suchergebnissen, bei denen man ein "About this result" abrufen kann, sollen auch die Bilder ein derartiges Feature erhalten. Damit kannst Du nachvollziehen, ob ein Bild oder ├Ąhnliche Varianten bereits auf einer anderen Website verwendet werden.

Was ich an dem Feature insgesamt richtig cool finde: Du kannst eins der vier erstellten Bilder ausw├Ąhlen und direkt in der SGE editieren durch weitere Prompts. Ein Screenshot aus der SGE, bei das Query "draw an image of a capybara wearing a chefs hat and cooking breakfast" eingegeben wurde. Das Ergebnis hat vier Bilder erstellt, die den Inhalt des Prompts wiedergeben. Ein Bild davon wurde angeklickt und auf der rechten Seiten sind unterschiedliche Optionen zu sehen. Ein Button mit Edit, eine Export-Funktion, eine Copy-Funktion und zwei kleine Buttons mit einem Daumen nach oben und einem Daumen nach unten.

Edit Button im Suchergebnis der SGE

Ein Screenshot aus der SGE, bei das Query "draw an image of a capybara wearing a chefs hat and cooking breakfast" eingegeben wurde. Ein generiertes Bild wurde geklickt und in den Edit-Modus gewechselt. Hier besteht die M├Âglichkeit, den Prompt anzupassen, um ein angepasstes Bild zu erhalten.

Edit Interface im Suchergebnis der SGE

Wenn Du m├Âchtest, dass Menschen etwas tun, dann mache es ihnen so einfach wie m├Âglich. Das ist eine der Hauptbotschaften, die ich aus dem Buch Nudge mitgenommen habe. Und alles in einer Applikation zu tun ist einfacher, als mehrere Applikationen gleichzeitig zu nutzen.

Drafts in der SGE schreiben

Die KI-gest├╝tzte Erstellung von Texten wird auch Teil der SGE. Du kannst in der SGE (ab sofort -- wie gesagt ein dehnbarer Begriff f├╝r Google ­čśů) Drafts anfertigen. Um f├╝r mehr Convenience zu sorgen, kannst Du die Texte direkt in Google Docs oder Gmail exportieren und damit weiterarbeiten.

Ein Screenshot aus der SGE, in dem zu sehen ist, dass die SGE Drafts schreiben kann. Zus├Ątzlich zum urspr├╝nglichen Draft gibt es Buttons, um eine k├╝rzere oder l├Ąngere Variante zu erstellen. Ebenfalls kann die Tonalit├Ąt eingestellt werden. Im Beispiel ist diese auf "Casual" festgelegt.

Weitere News zur SGE

Google hat eine neue robots.txt Crawling-Direktive ver├Âffentlicht mit dem Namen Google-Extended. Damit kann unter anderem ausgeschlossen werden, dass Inhalte Deiner Website in Bard auftauchen. F├╝r die SGE funktioniert das aber nicht, wie Google sagt:

"SGE is a Search experiment so website administrators should continue to use the Googlebot user agent through robots.txt and the NOINDEX meta tag to manage their content in search results, including experiments like Search Generative Experience."

Ob sich daran etwas ├Ąndert, m├╝ssen wir abwarten. ├ťber das Thema, ob Du z. B. OpenAI vom Crawling Deiner Seite ausschlie├čen solltest, habe ich hier f├╝r Dich thematisiert.

Zu guter Letzt: Vergangene Woche hat Search Engine Land einen Artikel von mir ver├Âffentlicht. Es ging darum, wie Du Dich erfolgreich auf die SGE vorbereiten kannst. Das Feedback bisher war gro├čartig, daher spreche ich eine Leseempfehlung aus.

Du erf├Ąhrst unter anderem

  • was wir wirklich wissen,

  • was wir nicht wissen,

  • was wir lieber sein lassen sollten und

  • was Du jetzt tun kannst.

Ich empfehle auf jeden Fall, dass Du Dir die SGE mal anschaust und Dich mit ihr vertraut machst. Wie Du in die SGE kommst, hat Anita an dieser Stelle f├╝r Dich zusammen geschrieben.

Es bleibt spannend. Ich werde die Augen f├╝r Dich offenhalten und Dir berichten, sobald es zu wichtigen Ver├Ąnderungen kommt.

Hannah Rohde
Hannah Rohde
Junior Consultant
Kurzes Recap der NESS - News & Editorial SEO Summit

Ich war dieses Jahr wieder virtuell auf der NESS. Barry Adams und John Shehata haben wieder tolle Speaker:innen zusammen getrommelt und ich konnte sehr viel mitnehmen. Ein bisschen was habe ich diese Woche f├╝r Dich mitgebracht.

AI nutzen, um besser zu werden in dem, was Du tust

Der unumg├Ąngliche Punkt AI war nat├╝rlich in fast jeder Session vertreten.┬á

Es wurden mehrere Varianten gezeigt, wie Tools genutzt werden k├Ânnen, um die Ergebnisse zu verbessern. Die Speaker:innen haben dazu ermutigt, AI zu nutzen, um die eigene Arbeit besser zu machen.

Allerdings auch aufgezeigt, wie viel Arbeit es zun├Ąchst macht und betont, dass man dran bleiben soll. Kevin Indig hat beispielsweise ├╝ber mehrere Tage an einem Prompt gearbeitet, bis er endlich zu einem zufriedenstellenden Ergebnis gekommen ist. Diesen Prompt kann er aber jetzt immer wieder abwandeln und nutzen, um dann wiederum schnell an Ergebnisse zu kommen, um seine Arbeit zu erleichtern. Barry nutzt AI beispielsweise, um sich inspirieren zu lassen und L├╝cken aufzudecken.

Beispielsweise zu neuen Themen, um einen leichteren Einstieg┬á zu bekommen und dann selbst etwas schreiben zu k├Ânnen. So stellt er sicher, dass er Content-L├╝cken schlie├čt. Ich habe mich dazu mit ein paar Teilnehmern ausgetauscht und die M├Âglichkeit, verschiedene Artikel von anderen Publishern mit dem eigenen Artikel zu vergleichen, findet gro├čen Anklang. Die meisten nutzen hierf├╝r ChatGPT. Hierbei nimmst du Deinen Artikel und l├Ąsst diesen mit besser rankenden Artikeln vergleichen und herausarbeiten, welche Aspekte Deinem Artikel fehlen und von den anderen beleuchtet werden, oder aber, dass die anderen mehr Bilder, Tabellen usw. haben. Diesen Promt k├Ânnen sie immer wieder nutzen, lediglich die URLs m├╝ssen angepasst werden.┬á

LLMs ausschlie├čen - ja oder nein?┬á

Super spannend fand ich die Abschlussdiskussion am zweiten Tag, bei der noch einmal diskutiert wurde, ob News-Seiten LLMs per robots.txt ausschlie├čen sollten oder nicht. Jes Scholz ist davon ├╝berzeugt, dass ein Ausschluss keinen positiven Effekt bringt und vertrat somit eine andere Meinung, als die anderen Gespr├Ąchsteilnehmer:innen. Sie sagt, auch wenn Du jetzt die Blockierung erstellst, wird Deine Brand trotzdem auftauchen und Deine bereits erstellten Inhalte genutzt werden. Sie sieht es als positiven Aspekt an, dass Nutzer:innen sich dadurch zu Deiner Seite navigieren k├Ânnen.

Jes geht sogar noch ein St├╝ck weiter und sagt, sie w├╝rde, wenn sie die Zeit zur├╝ckdrehen k├Ânnte, die Machine Learning Systeme auch dann nicht aussperren. Der meiste Content von Publishern ist n├Ąmlich nicht unique und wenn Du die Bots aussperrst, dann bekommen sie die Nachrichten trotzdem - nur von einer anderen Quelle. Und dann hast Du ├╝berhaupt keine Chance mehr, als Quelle genannt zu werden.

Weiterhin sagt Jes, Journalismus solle immer eine pers├Ânliche Note enthalten und die Stories so geschrieben sein, dass Leser:innen diese auch trotz SGE und Chatbots lesen wollen. Weil sie Dich als Autor:in sch├Ątzen - Deine Meinung, Deinen Schreibstil etc. Wenn ein Artikel keinen Mehrwert bringt und easy von AI zusammengefasst, selbst geschrieben oder auch von anderen Publishern so rausgebracht werden kann, dann ist es auch egal, ob Maschinen Deinen Inhalt "klauen", denn dann stichst Du mit Deiner Arbeit ohnehin nicht heraus.

Kevin Indig sieht das komplett anders: Er ist der Meinung, dass Nutzer, wenn sie ├╝ber SGE die Antwort auf ihre Frage erhalten haben, nicht auf die Quelle klicken. Die Antworten von ChatGPT sind noch nicht perfekt und es kommt sehr auf die Qualit├Ąt der Fragestellung an. Je genauer Deine Frage ist und je besser Du beschreibst, was f├╝r eine Antwort du m├Âchtest, desto besser wird das Ergebnis. Die Ergebnisse sind bereits jetzt aber schon besser und ausf├╝hrlicher, als Google sie bisher geben konnte. Mit SGE werden die Inhalte verschiedenster Seiten zusammengef├╝hrt und passend zur Frage aufbereitet. Je mehr Trainingsdaten Seitenbetreiber den Maschinen zur Verf├╝gung stellen, desto besser werden diese Inhalte werden. Publisher geben ihre wichtige Position laut Kevin mit der Bereitstellung der Daten aus der Hand, weshalb es wichtig sei, die Bots auszusperren.

John Shehata bringt als einen weiteren wichtigen Punkt mit in die Diskussion, dass die Aufmerksamkeitsspanne immer weiter abnimmt. Aufgrund dessen sind immer mehr kurze Videos und Inhalte erfolgreich. Kurze aufbereitete Informationen in SGE werden laut John ausreichen und Nutzer:innen werden sich nicht unbedingt weiter navigieren, um ausf├╝hrliche Inhalte einer bestimmten Quelle zu lesen. Ich kann die verschiedenen Argumente verstehen und w├╝rde sagen: it depends. Wir wissen nicht, ob Google SGE weltweit ausrollen wird - auch hier gehen die Meinungen auseinander. Glenn Gabe hat beispielsweise gesagt, dass er nicht daran glaubt. Momentan k├Ânnen wir die Auswirkungen von SGE nicht messen, die GSC hilft da laut Jes auch nicht, da die Daten nicht gesondert einflie├čen. Wenn Du Dir also unsicher bist, ob Du die Bots ausschlie├čen sollst oder nicht (die SGE kannst Du nur ausschlie├čen, wenn Du den Googlebot blockst), sei gewiss: Du bist mit Deiner Unsicherheit nicht alleine.

Back to Basics

Ein weiteres hei├č diskutiertes Thema war, wie man es schafft, die Redaktion, Gesch├Ąftsf├╝hrung und Devs auf seine SEO-Seite zu ziehen. Eventuell wurde auch dar├╝ber berichtet, wie Devs mit Donuts auf die eigene Seite gezogen wurden ­čśÇ

Die Speaker:innen sind sich einig, dass regelm├Ą├čige Schulungen unumg├Ąnglich sind. Der wichtigste Part sei f├╝r Redaktionen die perfekte ├ťberschrift und die Differenzierung zwischen ├ťberschriften f├╝r Discover und Search. W├Ąhrend die ├ťberschriften f├╝r die organische Suche klar auf einen Query ausgerichtet sein m├╝ssen, haben wir in Discover keine Suche, sondern Vorschl├Ąge f├╝r die Nutzer:innen. Darum m├╝ssen die ├ťberschriften catchy und emotional ansprechend sein.

"What's your number 1 SEO Priority when it comes to Articles?" 

ÔÇô Frage aus dem Publikum, bei jedem Panel und zahlreichen Sessions.

"The f*cking headline"

ÔÇô Barry Adams

Jolle Lahr-Eigen
Jolle Lahr-Eigen
Consultant
Wenn Dir das GSC User Interface mehr Fragen als Antworten gibt ­čĄö

Ich liebe es, f├╝r den schnellen Check von Such-Performance-Daten in das User Interface der Google Search Console (GSC UI) zu gehen. Ranken verschiedene Seiten zu einem Thema? Korreliert ein Sichtbarkeitsverlust mit r├╝ckl├Ąufigen Rankings? In der GSC kriege ich schnell Klarheit. Jedenfalls meistens. Oder tendenziell. Ein bisschen...

Denn wie uns Behrend in seinem GSC-Fuckup-Artikel erkl├Ąrt, gibt es viele Unstimmigkeiten, Einschr├Ąnkungen und ├ťberraschungen der kontraintuitiven Art im GSC UI, die ich ├╝ber die API oder ├╝ber BigQuery nicht habe. Neulich bin ich mal wieder in zwei Situationen geraten, bei denen mir fast die Glotzeb├Âmmelchen aus dem Antlitz geglitten w├Ąren.

Augenschlackern 1: GSC UI Tabelle gibt andere Daten aus als die ├╝ber das UI exportierte Tabelle

GSI UI: Zwei Zeitr├Ąume zu einem Keyword. Beide Zeitr├Ąume haben Positionsdaten.

In der Tabelle unterhalb des Graphen im GSC UI ranken die URLs der betrachteten Domain im Schnitt auf Position 13,3.

├ťber GSI UI exportierte Datentabelle in Sheets: Der Vorher-Zeitraum hat keine Positionsdaten.

Wenn ich mir ├╝ber den "Export"-Button oben rechts in der GSC die Daten ziehe und in Sheets aufbereite, habe ich angeblich im Vorherzeitraum keine Rankings und somit bei allen Performance-Angaben eine Null. Mein Keyword war wohl grad nicht im Sample ­čśČ...

Augenschlackern 2:┬áGSC UI unterschl├Ągt Tage mit Performance-Daten

Gefiltert nach "contains [keyword]" schien es Tage zu geben, an denen mindestens eine Seite der Domain in der Suche ausgespielt wurde und auch Klicks bekam. An anderen Tagen nicht.

GSC User interface: Type Web, Last 3 months, Query contains ...; Clicks + Position aktiviert.

Kann das stimmen? Kann schon sein, aber der Gegencheck mit Daten aus der GSC-API spricht eine andere Sprache: GSC API: Type Web, Last 3 months, Query contains ...; Clicks + Position

Klicks gab es zwar nicht immer, Rankings auf den Positionen zwischen 20 und 1 aber schon.

┬»\_(Ńâä)_/┬»

Fazit: Das GSC-Interface ist nicht der richtige Ort f├╝r belastbare Analysen

Deshalb weiche ich f├╝r meine Analysen, die ├╝ber einen ersten Smell Test hinausgehen, immer auf unser internes Tool-Setup aus, f├╝r das uns vor allem Heiko die Daten via Schnittstellen anzapft und abfragbar macht. So k├Ânnen wir mit unseren ma├čgeschneiderten Analysen Erkenntnisse und Empfehlungen f├╝r unsere Kunden ableiten, statt uns am Hinterkopf zu kratzen.

Welche Freak-Ergebnisse hat Dir die GSC schon ausgespuckt? Lass uns schaudern.

Johan von H├╝lsen
Johan von H├╝lsen
Gesch├Ąftsf├╝hrender Gesellschafter
Bad Bots, Bad Bots, watcha gonna do?

W├Ąre das Internet ein Land, dann h├Ątte es den viertgr├Â├čten CO2 Aussto├č aller L├Ąnder.

Wir k├Ânnen davon ausgehen, dass wir Ende n├Ąchsten Jahres schon ├╝ber 7% des CO2 Aussto├čes durch das Internet verursachen.

In jedem Fall verursacht das Internet schon jetzt deutlich mehr Emissionen als der Flugverkehr. ­čĄ»

Dabei wird der gr├Â├čte Teil (ca. 85%) von Datencentern verbraucht. Die User-Endger├Ąte machen nur 4% aus (allerdings d├╝rfte dabei die Produktion nicht ber├╝cksichtigt sein).

Am Ende spielt es keine Rolle: Das Internet ist wichtig. Wir brauchen das (unter anderem um den Klimawandel zu bek├Ąmpfen).

Das bedeutet aber nicht, dass wir alles davon brauchen:

Die Sch├Ątzungen gehen auseinander, aber zwischen 47% und 64% des Internet-Traffics kommt von Bots. ­čĄ» ­čĄ»

Das bedeutet, dass Bots sch├Ątzungsweise so viel CO2 produzieren, wie der Flugverkehr. ­čĄ» ­čĄ» ­čĄ»

(Zugegeben: Das kommt nicht ganz hin. Die ganzen Videos kommen noch dazu, wahrscheinlich ist Bitcoin mit eingerechnet, aber in jedem Fall ist der Ressourcenverbrauch durch Bots beachtlich).

Daher m├Âchte ich noch mal auf eine Idee verweisen:

Wie w├Ąre es, wenn wir nicht mehr allen Bots den Zugriff erlauben, sondern allen den Zugriff verbieten und dann nur noch denen erlauben, die wir unbedingt haben wollen?

Wir schreiben die Robots.txt also etwa so (nat├╝rlich noch nicht exakt so, sondern an Deine Bed├╝rfnisse angepasst):

```

User-Agent: /

Disallow: /

```

```

User-Agent: Googlebot #Main Googlebot

User-Agent: Bingbot #Main Bingbot

User-Agent: duckduckbot #Main DuckDuckGo

User-Agent: ia_archiver #Main Web Archive

User-Agent: archive.org_bot #Web Archive

User-Agent: Googlebot-Image

User-Agent: AdsBot-Google

Disallow: 

Disallow: *.woff2 #Bots brauchen keine Schriftarten

Disallow: /store-api/ #Bots brauchen keinen Zugriff auf das Warenkorb-JSON

...

```

Was w├╝rde Dich von diesem Ansatz abhalten?

Und welche Bots w├╝rdest Du noch den Zugriff erlauben?

Und nat├╝rlich hast Du recht: Das h├Ąlt nur die Bots ab, die sich auch an die Regeln halten. Viele tun das nicht. Manche, weil sie es nicht wissen. Manche, weil es ihnen egal ist und andere (wie beispielsweise Facebook oder Slack) weil sie meinen, dass sie ja nur f├╝r einen User agieren.

Aber auch hier kann man noch was machen: Du k├Ânntest beispielsweise Deinem CDN beibringen, nur Zugriffe von Bots zuzulassen, wenn dieser Bot in der Robots.txt f├╝r diese URL freigeschaltet ist.

 Philipp G├Âtza
Philipp G├Âtza
Junior Consultant
Ob Du eine Sitemap brauchst, siehst Du, wenn Workflows baust

Vorab: Nicht jede Website braucht eine Sitemap. Was sagt Google zu dem Thema?

Laut Google brauchst Du eine Sitemap, wenn:

  • Deine Seite gro├č ist

  • Deine Seite neu ist und wenige externe Links hat

  • Deine Seite viele Videos oder Bilder hat (die f├╝r die organische Suche relevant sind), oder in Google News angezeigt werden soll

Das hei├čt Du brauchst keine, wenn:

  • Deine Seite klein ist (< 500 Seiten)

  • Deine Seite intern gut verlinkt ist

  • Du wenige Videos, Bilder oder News-Seiten hast

Was hei├čt jetzt "gro├č" ist die Frage? Google sagt: Mittelgro├č bis gr├Â├čer sind mehr als 10k Seiten. Gro├č ist alles, was mehr als 1 Mio. URLs hat.

Je nachdem, wen Du fragst, wirst Du aber unterschiedliche Antworten bekommen. 

So kannst Du pr├╝fen, ob Du eine Sitemap brauchst

Ganz wichtig: Eine korrekte Sitemap zu haben, schadet keiner Website. Wenn Du aber einige potenzielle Ma├čnahmen auf dem Tacho hast und Dir nicht sicher bist, worin Du deine Energie jetzt stecken sollst, dann hilft Dir der folgende Denkansto├č sicherlich.

Wenn wir die Gr├Â├čenangaben zu Websites mal ausblenden und von Google News absehen, dann kannst Du folgenderma├čen pr├╝fen, ob Deine interne Verlinkung es hergibt, ohne Sitemap zu fliegen:

  1. Crawle Deine Website (mit Sitemaps) ÔÇô beim ScreamingFrog kannst Du das unter Configuration Ô×× Spider Ô×× Crawl einstellen und dort Deine Sitemaps eintragen

  2. Pr├╝fe, welche Seiten nur Links

  • aus Sitemaps,

  • von sich selbst,

  • der Navigation/Footer oder

  • von paginierten Seiten bekommen

Wichtige Seiten m├╝ssen m├Âglichst schnell und mit internen Links von indexierbaren Seiten auffindbar sein. Wenn dem so ist, brauchst Du nicht unbedingt eine Sitemap.

Was Du durch diesen Test auch findest: Baustellen der internen Verlinkung.

Nicht jeder Link ist gleichwertig. Das haben Martin Splitt und John M├╝ller auch schon unterschiedlich kommentiert. Wir wissen aber aus Erfahrung, dass es definitiv Unterschiede zwischen Main Content und z. B. der Navigation gibt.

Und wenn Du dar├╝ber nachdenkst, ob Infinite Scrolling etwas f├╝r Dich ist, dann hilft es auch zu wissen, ob manche Produkte nur aus der Paginierung erreichbar sind. Das muss ge├Ąndert werden, bevor Du die Paginierung durch Infinite Scrolling austauschst, wenn durch das Inifinite Scrolling keine Produkte mehr ohne Interaktion in Deinem HTML verlinkt sind!

Zeit sparen, indem Du einen recyclebaren Workflow verwendest

Du kannst am Ende das Tool verwenden, womit es Dir am einfachsten f├Ąllt.

Ich rate Dir aber: Mache Dir diese Arbeit beim n├Ąchsten Mal einfacher. Mit Knime und einfachen Nodes wie einem CSV Reader, Row Filter, Joiner & Co. kannst Du Dir sowas ganz leicht selbst zusammenbauen.

Was Du au├čerdem brauchst: Alle internen Verlinkungen aus einem Crawl.

So baust Du dir das jetzt zusammen:

  1. Lese die beiden Dateien internal_all und all_inlinks mit dem CSV Reader ein

  2. Optional filterst Du auf einen Bereich Deiner Seite, z. B. alle Produkte in beiden Listen (URLs und Linkziele)

  3. Jetzt filterst Du aus der all_inlinks alle Links heraus, die als Quelle die Sitemap haben

  4. Filtere zus├Ątzlich alle Verlinkungen von einer Seite auf sich selbst heraus (Mit der Rule Engine kannst Du daf├╝r eine neue Spalte schreiben, die Links auf sich selbst kennzeichnet; Der Row Filter hilft Dir, diese Zeilen dann zu l├Âschen)

  5. Der Value Counter Node z├Ąhlt, wie viele Verlinkungen jede URL bekommt

  6. Mit einem Joiner verbindest Du dann die beiden Listen und l├Ąsst Dir die Werte ausgeben, die in in der internal_all auftauchen, nicht aber in der gefilterten all_inlinks

Der Workflow daf├╝r sieht so aus:

KNIME Workflow, um die Notwendigkeit einer Sitemap herauszufinden. allinlinks einlesen, Sitemap Links rausfiltern, Pr├╝fung, ob Link auf sich selbst verweist und diese Links gegebenenfalls herausfiltern, Anzahl Links pro URL z├Ąhlen, Was ist nicht verlinkt?, Alle CSV exportieren

Schritt 3 kannst Du wie oben beschrieben weiter verfeinern und beispielsweise

  • alle Verlinkungen aus der Navigation und dem Footer oder

  • der Paginierung entfernen und so schauen, wie erreichbar Deine URLs wirklich sind.

Idealerweise liefert Dein Endergebnis 0 URLs aus, die nicht auffindbar sind.

Wenn es doch unauffindbare URLs gibt, die relevant f├╝r die organische Suche sind, und das einen Gro├čteil Deiner Website betrifft, dann lohnt sich eine XML-Sitemap. Und: Du musst unbedingt an Deiner internen Verlinkung arbeiten.

Gerne kann ich Dir helfen, das zu ├╝berpr├╝fen und mit Dir Pl├Ąne schmieden, wie wir Deine interne Verlinkung aufpeppen k├Ânnen.

Vorherige AusgabeN├Ąchste Ausgabe
 
Fragen? Immer gerne fragen!
Wir sind f├╝r Dich da.
Schreib uns gern jederzeit
eine E-Mail an kontakt@wngmn.de oder
ruf uns einfach kurz an: +49 40 22868040

Bis bald,
Deine Wingmenschen
Anckelmannsplatz 1, 20537 Hamburg, Germany
Wingmen Online Marketing GmbH Logo