Wirklich wahres Wingmen SEO Wissen f├╝r wache Webmarketer #166
Wingmen Online Marketing GmbH Logo
Nils Warnick
Nils Warnick
Consultant
­čÉ▓ SEO-Learnings aus den Drachenlanden

Wingmenschen sind ja beinahe ├╝berall zu finden. In diesem Fall hat mich mein (Urlaubs-)Weg zum Drachenfest gef├╝hrt, einer der gr├Â├čten Fantasy-LARP-Veranstaltungen Europas. Auf den ersten Blick m├╝sste man meinen, das fiktive Streiten um die Vorherrschaft in den Drachenlanden habe allgemein wenig mit Online-Marketing gemeinsam. Schaut man jedoch genauer hin, fallen durchaus Parallelen auf:

  • Die Gr├Â├če Deines Lagers ist unbedeutend, wenn Deine Streiter nicht motiviert sind.

  • Es gibt keine Abk├╝rzungen: Nur Ausdauer und Commitment f├╝hren zum Erfolg.

  • Um sturmfest zu sein, braucht jede Palisade ein solides Fundament.

Unbenommen von meiner Exkursion waren die weiteren Wingmenschen flei├čig und haben wieder Wissen f├╝r Dich gehortet:

  • Hannah f├╝hrt News-Crawling-Insights ins Gefecht.

  • Philipp st├Ąhlt seine Gedanken mit mentalen Modellen.

  • Nora entwickelt Notfallpl├Ąne f├╝r Sichtbarkeitsverluste.

  • Jolle erforscht Crawling-Magie.

  • Andreas beleuchtet ein B├╝ndnis von Screaming Frog und KNIME.

Und Achtung: L├Ąsst Du Deine Jira-Tickets Geburtstag feiern, dann muss ich eventuell erneut die Rolle eines Streiters annehmen ;)

Wingmensch Nils steht in einer mittelalterlichen R├╝stung und einer Spielzeug-Axt auf einer Wiese vor verschiedenen Zelten und schaut in die Kamera.

Nun aber viel Spa├č beim Lesen!

Deine Wingmenschen

Was wir gelesen haben
Hannah Rohde
Hannah Rohde
Junior Consultant
Crawling Insights f├╝r News SEOs von Barry Adams

Barry Adams hat im aktuellen News-SEO-Newsletter dar├╝ber berichtet, wie Publisher das Crawling optimieren k├Ânnen, hier eine kleine Zusammenfassung und Wiederholung f├╝r Dich:

Wie entscheidet Google, was gecrawlt wird? Hierbei spielt die Relevanz der Seite eine gro├če Rolle. Diese ergibt sich daraus, wie viele Links auf die URL zeigen, wie oft die URL aktualisiert wird und neue Links dazu kommen.┬á

  • Wichtige URLs, zB. Evergreens, also regelm├Ą├čig aktualisieren und gut verlinken.

  • Aber auch Hub- und Themenseiten fallen hierunter - nutze diese um das Crawling zu optimieren.

Ein weiteres wichtiges Thema (vor allem f├╝r News) ist, dass die Artikel nicht regelm├Ą├čig gerecrawled werden. Barry betont, dass SEO bereits beim ersten Publishen mitgedacht sein muss, denn ein eventuelles Recrawling findet erst Stunden oder sogar Tage sp├Ąter statt.

"This is why it's so incredibly important to make SEO part of your editorial workflow and ensure articles are optimised before they are published."

"Any improvements made to an article after its publication is unlikely to have any impact on the article's visibility. Unless, of course, you change the URL - because then Googlebot will treat it as an entirely new article."

Die wichtigste Ableitung also: Nimm SEO in den Publishing-Prozess mit auf.

Barry erw├Ąhnt auch noch einmal, dass die Robots.txt genutzt werden kann, um bestimmte Seitenbereiche vom Crawling auszuschlie├čen. Hierbei betont er auch, dass seit 2011 nicht mehr mit dem Googlebot News gecrawlt wird, sondern mit dem Smartphone Bot. Wenn Du also in deiner robots.txt Angaben zum User-agent: Googlebot-News machst, wirkt sich das nicht auf das Crawling, sondern auf die M├Âglichkeit in Google News zu ranken.

Wie Du mit Large Language Models und deren Crawling umgehen kannst

M├Âchtest du k├╝nstliche Intelligenzen davon abhalten, mit den Daten Deiner Seite trainiert zu werden, dann kannst Du

"User-agent: GoogleOther

Disallow: /

User-agent: CCBot

Disallow: / "

in der robots.txt aufnehmen, denn Google crawlt daf├╝r wohl mit dem GoogleOther Bot und OpenAI nutzt wohl den Common Crawl Bot. M├Âchtest Du mehr ├╝ber das Sperren Deiner Inhalte vor LLMs erfahren, empfehle ich Dir den Artikel von Roger Montti.

Ein weiterer Tipp von Barry ist zu pr├╝fen, ob Du wirklich die ganze Domain in der GSC angemeldet hast, oder nur einzelne Subdomains. Wenn Du die gesamte Domain angibst, siehst Du in den Crawl Stats, welche Subdomains Google wie crawlt und kannst so auch pr├╝fen, dass beispielsweise keine Testumgebung aus Versehen gecrawlt wird. ;)

Interne Verlinkungstipps

Ein paar gute Hinweise f├╝r die interne Verlinkung hat Barry auch parat:

  • Keine Tracking-Parameter nutzen ÔÇô solche URLs erzeugen unn├Âtiges Crawling Ôćĺ nutze lieber andere TrackingSetups, die nicht f├╝r zus├Ątzliche URLs sorgen.

  • L├Âsche keine Artikel ÔÇô vor allem nicht zu Themen, die Dir wichtig sind!

Alte Artikel┬ásind mitunter oft nicht mehr der Traffic-Bringer. Sie spielen aber eine wichtige Rolle im Bereich Topical Authority. Sei also achtsam, wenn Du Inhalte l├Âschen m├Âchtest. Eine Themenseite mit wenig Artikeln schneidet im Vergleich zu einer Themenseite Deiner Konkurrenz mit mehr Artikeln schlechter ab.

 Philipp G├Âtza
Philipp G├Âtza
Junior Consultant
Mit mentalen Modellen nach oben denken

"Ich wusste, dass das passieren w├╝rde."

"Das Bottleneck ist in der Technik, wir haben daf├╝r nicht genug Ressourcen."

"Auch wenn wir das machen, haben wir Opportunit├Ątskosten."

Diese drei Zitate sind Beispiele f├╝r mentale Modelle (Englisch: Mental Models) und sind Dir sicherlich schon mal ├╝ber den Weg gelaufen. Mentale Modelle helfen uns, die Welt zu verstehen und aus komplexen Sachverhalten einfach verst├Ąndliche und merkbare Gedankenst├╝tzen und Konzepte zu bauen.

Auch im SEO begegnen wir mentalen Modellen nahezu jeden Tag. Daher m├Âchte ich Dir heute 3 vorstellen, die Du auf SEO und verwandte Disziplinen gut anwenden kannst.

1. First Principle Thinking

Einfach umschrieben sind First Principles die Dinge, von denen wir wissen, dass sie wahr sind. First Principle Thinking beschreibt, dass wir uns an den Dingen orientieren sollten, von denen wir wirklich wissen, dass sie wahr sind. Beispielsweise kam Elon Musk durch diese Art zu denken ├╝berhaupt erst auf die Idee, SpaceX anzugehen.

Einige First Principles aus dem SEO sind:

  1. Damit etwas ranken kann, muss es vorher gecrawlt und indexiert worden sein.

  2. Verlinkungen (intern und extern) helfen Suchmaschinen neue Websites und Inhalte zu entdecken.

  3. Damit ein Inhalt langfristig gut ranken kann, muss die Suchintention befriedigt werden.

  4. Einzelne Seiten k├Ânnen f├╝r eine gro├če Anzahl an Keywords ranken.

  5. Je nachdem von wo ich suche, bekomme ich andere Suchergebnisse ausgespielt.

  6. Und viele weitere Beispiele, die Dir sicherlich einfallen.

Damit man in First Principles denkt, sollte man das eigene Wissen hinterfragen. Pr├╝fe das am besten mit folgenden Fragen:

  1. Warum denke ich das und was genau denke ich?

  2. Woher wei├č ich, dass das wahr ist?

  3. Welche Quellen best├Ątigen das?

  4. Ist das heute immer noch so?

  5. Gibt es unterschiedliche Meinungen zu dem Thema?

  6. Was ist, wenn ich falsch liege?

First Principles sollen Dir helfen, Dich auf die wesentlichen Wahrheiten zu fokussieren und Dein gesammeltes Wissen auf den Pr├╝fstand zu stellen.

2. Second Order Thinking

Ein weiteres sehr gut zu SEO passendes Mental Model ist Second Order Thinking. Wenn Ma├čnahmen geplant werden, wird h├Ąufig nur an die Konsequenzen erster Ordnung gedacht. Was dabei gerne vergessen wird ist die Frage:

"Was k├Ânnten die Konsequenzen dieser Entscheidung in 12 Monaten, 3 Jahren oder 10 Jahren sein?"

Es geht also darum, sich nicht nur auf die m├Âglicherweise unmittelbaren oder ersten Konsequenzen einer Entscheidung oder Ma├čnahme zu fokussieren, sondern m├Âgliche nachgelagerte Konsequenzen und Effekte zu ber├╝cksichtigen.

Die Grafik visualisiert zwei unterschiedliche Entscheidungen und ihre Konsequenzen. Die Unterteilung ist 1. Ordnung, 2. Ordnung und 3. Ordnung. Entscheidung A hat erst positive Auswirkungen, wird auf Ebene der 2. und 3. Ordnung aber negativ. F├╝r Entscheidung B ist dies umgekehrt. Erst negative Konsequenzen und dann positive Auswirkungen.

Eine Entscheidung k├Ânnte kurzfristig vielversprechende positive Auswirkungen zeigen, langfristig aber negative Konsequenzen bedeuten und umgekehrt.

Es l├Ąsst sich immer wieder feststellen, dass im Online Marketing (und nat├╝rlich auch im SEO) h├Ąufig kurzsichtig geplant wird. Hier mal zwei Beispiele:

"Wir ranken gut mit vollst├Ąndig automatisiertem KI-Content. Vielleicht brauchen wir keine Redaktion mehr, das klappt auch so."

"Wir kaufen Links und sind vorsichtig, dann sollte uns nichts passieren, weil es bringt uns Ranking-Erfolge und st├Ąrkt unsere Domain."

Bei solchen Entscheidungen sollte man die angesprochenen Konsequenzen nachgeordneter Ebenen ber├╝cksichtigen.

Heute rankt KI-Content, was ist aber, wenn ALLE die gleichen Tools und austauschbare Inhalte verwenden? Dann haben wir unseren eigentlichen Wettbewerbsvorteil, ein gut gemeinsam arbeitendes Redaktionsteam, verspielt.

Wer heute Links kauft, die Wirkung zeigen, k├Ânnte morgen Links haben, die von Google entwertet wurden und keinen Effekt mehr haben. Im Worst Case wird man manuell abgestraft. Wir erw├Ąhnen oft, dass wir kein Linkbuilding machen und dabei spielt vorausschauendes Handeln im Sinne unserer Kunden nat├╝rlich eine gro├če Rolle.

Das sind einfache Beispiele. Diese Gedanken lassen sich aber auf jede Entscheidung anwenden und helfen, sich auch auf nachgeordnete Reaktionen und Konsequenzen vorzubereiten und bessere Entscheidungen zu treffen.

3. Red Queen Effect

Abschlie├čen m├Âchte ich heute mit dem Red Queen Effect. Charles Darwin hat gesagt:

"It is not the strongest of the species that survives, nor the most intelligent that survives. It is the one that is most adaptable to change."

Das ist genau das, was der Red Queen Effect ausdr├╝ckt. Wir SEOs m├╝ssen uns st├Ąndig an neue Gegebenheiten anpassen und vorbereiten. Gerade in den jetzigen Zeiten von

  • KI-Content,┬á

  • ver├Ąndertem Suchverhalten j├╝ngerer Generationen,┬á

  • KI-Anwendungen die Antworten auf Fragen liefern, wie es sie vorher nicht gab (ChatGPT, Google Bard, SGE, etc.) und┬á

  • neue Integrationen in den Suchergebnissen.

Das Spielfeld hat sich in den letzten 10 Jahren immer wieder ver├Ąndert und die, die sich immer wieder angepasst haben, sind heute weiterhin erfolgreich. Hier l├Ąsst sich auch der Bogen zu den First Principles aufspannen.

Die Spielregeln werden durch Google ge├Ąndert und daher gilt es bisherige Annahmen zu ├╝berpr├╝fen, weil durch neue Gegebenheiten Dinge, die man als gegeben angesehen hat, nicht mehr gegeben sind und hinterfragt werden m├╝ssen.

Es gibt viele mentale Modelle und ich finde das Thema sehr spannend. Daher kannst Du dich auf einen zweiten Teil freuen.

Nora Tiedemann
Nora Tiedemann
Junior Consultant
Sichtbarkeitsverlust ÔÇô WTF ­čś▒

Ungef├Ąhr so sah der Betreff einer E-Mail aus, die Donnerstagmorgen in mein Postfach geflattert ist, inklusive folgendem Bild:

T├Ąglicher Sichtbarkeitsindex der innerhalb von einem Tag von 6 auf 0 gesunken ist.

Auf dem Bild wird deutlich, die Sistrix-Sichtbarkeit ist von ca. 6 auf 0 abgefallen. Das ist nat├╝rlich erstmal besorgniserregend.

Was kannst Du in einer solchen Situation tun?

  1. Ruhig bleiben und erstmal tief durchatmen. ­čžś

  2. Deinem Kunden oder Deinem Team zeigen, dass Du da bist und Dich k├╝mmerst. ­čĄŁ

  3. Dir ein zweites Paar Augen ins Boot holen ÔÇô gemeinsam segelt man besser durch einen Sturm. ÔŤÁ

  4. Jetzt geht es in die Analyse! ­čž¬

  5. Sind andere auch betroffen? Ô×í´ŞĆ In dem gezeigten Screenshot war nur der t├Ągliche Sichtbarkeitsindex betroffen. Alle anderen Berichte schienen normal. Zus├Ątzlich hat uns der Komplettverlust stutzig gemacht. Daher haben wir gepr├╝ft, ob weitere Domains betroffen sind. Ergebnis: Ja, aber nicht alle.

  6. Vielleicht ein Bug? Ô×í´ŞĆ Das sprach dennoch f├╝r einen Bug. Wir haben uns also an den Sistrix-Support gewandt.┬á

  7. Live-Check Ô×í´ŞĆ Parallel haben wir gepr├╝ft, ob die Seite ├╝berhaupt erreichbar ist und ob es ├änderungen in der Robots.txt gab. Erg├Ąnzend haben wir die Rankings direkt bei Google ├╝berpr├╝ft. Hier war alles im gr├╝nen Bereich und unsere Rankings vorhanden.┬á

  8. GSC-Check Ô×í´ŞĆ Auch in der GSC sah alles normal aus. Es gab keine Auff├Ąlligkeiten im Performance Report, den Crawl Stats und auch keine Penalty.┬á

  9. Spricht alles f├╝r einen Sistrix-Bug ­č¬▓

Genau diesen Zwischenstand haben wir dann erstmal an den Kunden gebeamt und konnten wenig sp├Ąter auch offiziell Entwarnung geben:

"[...] Wie es scheint, haben ein paar mobile Daten von heute gefehlt, die Kollegen bei der Entwicklung haben ein wenig nachgeholfen, laut Aussage sollten nun auch die anderen Domains wieder normale Daten f├╝r heute anzeigen. [...]"

Und unsere Sichtbarkeit war auch wieder auf dem erwarteten Stand:

T├Ąglicher Sichtbarkeitsindex mit gefixter Sichtbarkeit, die wie zuvor relativ stabil ist und wieder um 6 Punkte erreicht.

Puhh, auf den Schreck erstmal einen Kaffee! ÔśĽ Ist Dir so etwas schon einmal passiert?

Jolle Lahr-Eigen
Jolle Lahr-Eigen
Consultant
Ausmisten des Heuhaufens lohnt sich, sofern die Nadel kein rostiger Nagel ist

In der SEO-Sprechstunde wurde John M├╝ller neulich gefragt, ob das Eindampfen eines Gro├čteils des URL-Inventars in einem Shop dabei helfen kann, den in der Google Search Console (GSC) kommunizierten Fehler "Discovered - currently not indexed" zu beheben.

Konkret ging es darum, aus 8 Millionen Produktdetailseiten (PDPs) durch Deindexieren und Aggregieren 2 Millionen zu machen, wie Roger Montti im Search Enginge Journal dokumentiert.

Discovery, Crawling, Indexing, Ranking

Vorsicht bei der Lekt├╝re des SEJ-Artikels! Da geht mit Blick auf die Begriffe "Crawling" und "Indexing" einiges durcheinander.

Flowchart: Discovery, Crawling, Indexing, Ranking

F├╝r gute Rankings in den Suchergebnissen muss Google die URLs mit Deinen relevanten Inhalten finden, crawlen, verarbeiten, einordnen und gemessen am Wettbewerb bewerten.

Discovered - currently not indexed

Dieses Problem f├Ąllt laut GSC in den Entscheidungsbereich von Google. Im Gegensatz zum noindex-Metatag gibt es hier keinen Knopf oder eine Direktive, die wir als Website-Betreibende ein- oder ausschalten k├Ânnen, um das Problem zu beheben. In Googles Dokumentation hei├čt es hierzu:

"The page was found by Google, but not crawled yet. Typically, Google wanted to crawl the URL but this was expected to overload the site; therefore Google rescheduled the crawl. This is why the last crawl date is empty on the report."

Google hat mit der Einsch├Ątzung, ob es sich um gute (n├╝tzliche) oder schlechte Inhalte handelt, noch gar nicht begonnen, da die URLs noch gar nicht gecrawlt worden sind.

Du bist Google trotzdem nicht hilflos ausgesetzt

Nat├╝rlich haben wir indirekt trotzdem Einfluss auf dieses Problem. John gibt keine konkrete Antwort auf den Einzelfall, bringt aber generelle Prinzipien und Ressourcen ins Spiel, die Du mit Blick auf die eigene Situation pr├╝fen kannst, um zu einer Entscheidung zu kommen:

  • Er verweist auf den Large site owner's guide to managing your crawl budget, damit Du sicherstellen kannst, dass Deine Website mit mehr Crawling durch Google ├╝berhaupt umgehen kann.

  • Als n├Ąchstes strapaziert John die "Overall site quality". Nur wenn sich die Qualit├Ąt Deiner Domain durch das Eindampfen des URL-Inventars um ein Viertel von 8 auf 2 Millionen verbessert, h├Ąlt er die Ma├čnahme f├╝r zielf├╝hrend ÔÇô andernfalls versenkst Du viel Zeit und Ressourcen und kommst trotzdem nicht vom Fleck.

Technische Hebel

Je gr├Â├čer Deine Domain, desto gr├Â├čer ist auch der Hebel, den Du mit Technical SEO in der Hand h├Ąltst. Sorge daf├╝r, dass Dein Server schnell und erreichbar ist und nur wertvolle Ressourcen gecrawlt werden:

  • Die GSC berichtet Dir in den Crawl Stats von "inacceptable fail rates", weil Dein Server nicht angepingt werden kann oder die Antwortzeiten Deines Servers liegen regelm├Ą├čig oberhalb von durchschnittlich 700 oder sogar 1.000 Millisekunden? Ô×í´ŞĆ Dann kann Dich ein Serverupdate nach vorne bringen.

  • Verlinke intern ausschlie├člich auf URLs mit Status 200.

  • Erstelle und melde nur Sitemaps via robots.txt und GSC, die ausschlie├člich URLs mit Status 200 enthalten, indexierbar sind und rankingw├╝rdigen Content enthalten.

  • Googlebot hat sich in Deine Schriftarten verliebt und h├Ârt trotz passender Caching-Settings nicht auf, diese wieder und wieder zu crawlen? Ô×í´ŞĆ Trau Dich wie Johan, diese Ressourcen per robots.txt f├╝r den Bot zu blockieren.

  • Das PPC-Team schaltet regelm├Ą├čig Google Ads auf URLs mit Status Code 301 und der Adsbot frisst laut Crawl Stats mehr als 5-10 Prozent des Crawl Budgets? Ô×í´ŞĆ Gib dem Performance-Team den Hinweis, dass auch sie am besten nur auf URLs mit Status Code 200 verlinken.

  • Die GSC zeigt Dir Probleme mit Canonicals an und es gibt demnach redundante Inhalte, bei denen Google nicht genau wei├č, welche die Originale sind, die Rankings bekommen sollen? Ô×í´ŞĆ Dann entferne inhaltliche Dubletten, deindexiere sie und/oder zieh die Canonicals nochmal glatt.

Inhaltliche Hebel

Doch Deine Website kann technisch schnurren wie ein K├Ątzchen, wenn die Inhalte darauf f├╝r niemanden einen Mehrwert bieten, n├╝tzt es nichts. Wenn Du den Heuhaufen entfernst und trotzdem keine Nadel zu finden ist, gibt es f├╝r Google keinen Anreiz, Deine URLs f├╝r Suchanfragen mit einem Top-Ranking vor die Nase von Menschen mit Fragen und Bed├╝rfnissen zu setzen.

Was kannst Du also stattdessen tun?

Lies Dir die Quality Rater Guidelines mit Blick auf "3.2 Quality of the Main Content" nochmal genau durch. Dann verstehst Du, dass Google Content mit Rankings belohnen m├Âchte, in dem hoher Aufwand, Originalit├Ąt und neue Perspektiven sowie Einzigartigkeit, Erfahrung, Talent und K├Ânnen eingeflossen sind, die nicht beliebig imitiert werden k├Ânnen.

Brand

Allerdings schaffen es bekannte Marken immer wieder, andere Seiten aus den Top-Rankings rauszuhalten, obwohl sie selbst weder technisch noch inhaltlich auf der H├Âhe sind. Das liegt daran, dass f├╝r bestimmte Suchanfragen wie nach der Marke selbst oder nach Themen, mit denen die Brand untrennbar verkn├╝pft ist, ein Suchergebnis dieser Marke selbst die beste Antwort ist.

Diese S├Ąule ist am weitesten von Deiner direkten Einflusssph├Ąre entfernt, aber gute PR- und Marketing-Leute wissen seit Jahrzehnten, wie sie Ihre Marke mit Werbung, PR und Influencern ins passende Licht r├╝cken und ein Image entwickeln. Product People wissen, welche Qualit├Ąten, L├Âsungen und Funktionalit├Ąten ein Produkt braucht, um am Markt bestehen zu k├Ânnen oder sogar geliebt zu werden.

Von diesen Ma├čnahmen profitiert auch SEO. Doch was k├Ânnen wir hier direkt beisteuern?

  • ├ťber digitale PR lassen sich organische Backlinks aufbauen. Aber vielleicht ├╝berl├Ąsst SEO diesen Teil doch lieber den Hardcore-PR- und Content-Menschen. Kein manipulatives Linkbuilding, bitte!

  • Auch Mentions, also Erw├Ąhnungen Deines Markennamens ohne Link, z├Ąhlen. Baue also Kookkurrenzen Deiner Marke mit Deinem relevanten Thema auf. Wie das im Prinzip (aber nur kurzfristig) funktioniert, hat Kai Spriestersbach hier mal aufgeschrieben.

  • Lies Dir die Quality Rater Guidelines durch, diesmal mit Blick auf "3.3 Reputation of the Website and Content Creators": Denn nicht nur Dein Produkt und Deine Website brauchen einen guten Ruf, auch die Menschen, die auf Deiner Seite ver├Âffentlichen, sollten die typischen E-E-A-T-Kriterien (Experience/Erfahrung, Expertise, Authoritativeness/Autorit├Ąt und Trustworthiness/Vertrauensw├╝rdigkeit) mit Blick auf die Themen, ├╝ber die geschrieben wird, erf├╝llen. Eine gute Verlinkung und Schema-Markup k├Ânnen dabei helfen, externe Quellen als Zeugen f├╝r E-E-A-T strukturiert f├╝r Google lesbar zu machen.

Fazit

Ich denke, dass die Reduktion der URLs um drei Viertel von 8 Millionen auf 2 Millionen durchaus viel bewirken kann. Die fragende Person sprach schlie├člich nicht nur vom Deindexieren, sondern auch vom Aggregieren. Das klingt danach, als w├╝rden verschiedene redundante Versionen von Produkten zusammengef├╝hrt auf nur noch eine starke URL. Das w├╝rde ich als Benutzerin und SEO sehr begr├╝├čen.

Google kann die Seite dann viel schneller crawlen und hat weniger Canonical-Probleme, die es zu sortieren g├Ąbe. Das sollte in der Tat helfen.

Was mich dar├╝ber hinaus beim Lesen des Artikels im SEJ zum Gr├╝beln gebracht hat:

  • Letztes Jahr war die SEO-Bubble sauer und hat sich von Google benutzt gef├╝hlt, als das Helpful Content System so riesig angek├╝ndigt wurde und dann kaum Auswirkungen sp├╝rbar waren.

  • Google macht hier nochmal deutlich, dass sie oft Monate brauchen, um die Qualit├Ąt einer ganzen Domain beurteilen zu k├Ânnen, wozu neben Technik und Inhalten auch Design, Layout und UX z├Ąhlen.

Das bedeutet f├╝r mich, dass viele Ranking-Schwankungen in den letzten Monaten, bei denen wir den Bezug zu einem Google Update nicht mit einer klaren Abbruch- oder Aufschwungkante in Zusammenhang bringen konnten, insgeheim doch mit dem Wirken des Helpful Content Systems zusammenh├Ąngen.

Nach und nach gelingt es Google besser und besser, das, was sie den Quality Ratern als Ziel vorgeben, algorithmisch in Suchergebnisse zu ├╝bersetzen.

Andreas R├Âne
Andreas R├Âne
Consultant
Direkter Frosch-Zugriff mit KNIME (Teil 1)

Bei der t├Ąglichen Arbeit mit dem Screaming Frog und den Auswertungen der Daten hat mich immer der Umweg ├╝ber die CSV-Exportdateien gest├Ârt. Gerade mit KNIME geh├Âren fixe Prozesse und Daten-Sheets doch der Vergangenheit an. Im letzten Newsletter hatte ich angek├╝ndigt, dass ich Dir zeige, wie Du auf Screaming Frog Exporte direkt zugreifen kannst. Jedoch fand ich diesen (Um)Weg immer noch zu kompliziert. Aus diesem Grund habe ich mir die Frage gestellt, ob ein direkter Datenbankzugriff auf die Daten im Screaming Frog m├Âglich ist.

Und die Antwort lautet ÔÇ×ja", solange Du in den Einstellungen den ÔÇ×Storage Mode" auf ÔÇ×Database Storage" gestellt hast, kannst Du direkt auf Deine Crawls mit SQL und etwas Magie zugreifen!

Ein mit generativer KI erstelltes Bild, auf dem eine gro├če Hand nach einem kleinen Frosch greift.

(Bild erstellt mit Bing Image Creator)

Wie das genau funktioniert und welche Schritte Du durchf├╝hren musst, um ebenfalls in den Genuss diesen genialen Features zu kommen, zeige ich Dir in diesem Step by Step Guide:

1. Derby-Treiber installieren

Als Erstes ben├Âtigen wir einen aktuellen Derby-Datenbank-Treiber, den wir hier herunterladen k├Ânnen. Der Treiber ist ein JDBC-Treiber und wird ben├Âtigt, damit KNIME (und andere Programme) auf die Screaming Frog-Daten zugreifen k├Ânnen. JDBC steht f├╝r ÔÇ×Java Database Connectivity" und ist eine universelle Datenbankschnittstelle f├╝r Java und in Java entwickelte Programme.

2. Wo findest Du nun Deine Crawl-Daten?

Dazu habe ich Dir ein kleines Tool in PHP gebastelt. Mit diesem kannst Du Dir den jeweils ben├Âtigten ÔÇ×Verbindungs-String" eines bestimmten Crawls anzeigen lassen. Danach musst Du diese Zeichenkette nur noch via Copy&Paste in Deine Programme ├╝bernehmen, um Dich mit dem jeweiligen Crawl zu ÔÇ×verbinden".

  • ├ľffne ein Terminal auf Deinem Rechner

  • Lade das Script an die Stelle, an der Du mit dem Script arbeiten m├Âchtest.

  • Starte das Script mit dem Kommando "php sfadmin.php". Danach wirst Du dieses Men├╝ sehen.

Mit dem Screaming Frog Admin-Tool kannst Du zahlreiche Aktionen durchf├╝hren, ohne den Screaming Frog starten zu m├╝ssen. Das Script wartet auf die Eingabe eines Kommandos

(Das Script wartet auf die Eingabe eines Kommandos)

  • Gib das Kommando "getdata" ein. Das Script listet alle im Frog gespeicherten Crawls auf.

Liste Deiner verf├╝gbaren Crawls im Screaming Frog

(Nach dem Kommando "getdata" listet Dir das Script alle verf├╝gbaren Crawls auf.)

  • W├Ąhle jetzt Deinen gew├╝nschten Crawl aus, indem Du die Zahl vor dem Crawl eingibst und dies mit Enter best├Ątigst. (0 bringt Dich zur├╝ck ins Hauptmen├╝)

Ausgabe der wichtigsten Daten des Crawls. Das Script gibt nun die wichtigsten Daten des Crawls aus. Unter anderem den Derby-Verbindungsstring

(Das Script gibt nun die wichtigsten Daten des Crawls aus. Unter anderem den Derby-Verbindungsstring)

  • Diesen String ben├Âtigen wir f├╝r die n├Ąchsten Verbindungen. Kopiere diesen bitte in die Zwischenablage.

  • Das Programm kannst Du mit dem Kommando "q" + Enter beenden

3. Erster Blick in die Datenbank mit DBeaver

Aber wozu ben├Âtigen wir jetzt den DBeaver? Ganz einfach: Derby unterst├╝tzt ÔÇ×nur" die Datenbanksprache SQL-92. Diese schr├Ąnkt KNIME in der aktuellen Version noch sehr stark in der Zusammenarbeit mit Derby ein. Um Dir die Struktur der Datenbank besser zu verdeutlichen, nutzen wir ein freies Datenbank-Tool, das hier eine bessere Unterst├╝tzung bietet.

  • Daher laden wir DBeaver einmal herunter und installieren es.

  • Im n├Ąchsten Schritt legen wir im DBeaver eine neue Datenbankverbindung an. Dazu klicken wir auf das Icon oben links.

DBever Hauptfenster ohne Datenbankverbindung

Datenbankverbindung anlegen:

Suche in den Verbindungen nach "Derby". Die Verbindungsart "Derby Embedded"ist die Version, die wir f├╝r den Frog verwenden m├╝ssen.

DBeaver, Erstellung einer neuen Datenbankverbindung vom Type Derby

(W├Ąhle in diesem Dialog "Derby Embedded" aus)

Den Verbindungsstring f├╝r die Derby-Datenbank m├╝ssen wir dann aus der Ziwschenablage einf├╝gen

(F├╝ge den Verbindungs-String aus der Zwischenablage in dem Feld "Pfad" ein.)

Pr├╝fen, ob der Datenbanktreiber in der aktuellen Version 10.16.X genutzt wird:

Klicke dazu auf den Button "Treibereinstellungen bearbeiten"

Installation des Derby-Treibers in Version 10.16.X.X

Sollte hier noch eine andere (├Ąltere) Version installiert sein, so m├╝ssen wir diese entfernen und unsere als erstes heruntergeladenen Treiber ├╝ber "Datei hinzuf├╝gen" einbinden. Suche in Deinem Download nach dem Verzeichnis "db-derby-10.16.x.x-bin", dort ist das Verzeichnis "lib" enthalten und darin die Datei "derby.jar". Diese musst Du in dem Dialog ausw├Ąhlen.

Verzeichnisstruktur des Derby-Treibers

Danach kannst Du mit einem Klick auf "Klasse suchen" checken, ob der richtige Treiber gefunden und genutzt wird: Die Pull-down-Liste links neben dem Button sollte sich nun mit Klassennamen gef├╝llt haben. Ausgew├Ąhlt ist hier "org.apache.derby.iapi.jdbc.AutoLoadedDriver".

Danach k├Ânnen wir den Dialog mit einem Klick auf "OK" schlie├čen.

Das Verzeichnis zur eigentlichen Datenbank haben wir ja schon ausgew├Ąhlt und so k├Ânnen wir den Dialog "Verbindungseinstellungen" ebenfalls mit einem Klick auf "OK" schlie├čen.

Herzlichen Gl├╝ckwunsch! Du hast Deine erste Datenbankverbindung eingerichtet. Du solltest nun in der Baumstruktur einen neuen Knoten mit Deiner Verbindung sehen. Wenn Du diesen nun mit einem Klick ├Âffnest, erscheint die Datenbankstruktur Deines Crawls.

DBever-Hauptfenster mit der aktiven Datenbankverbindung zum ScreamingFrog-Crawl

Datenansicht der URL-Tabelle des ScreamingFrog-Crawls

Was Du bei Deiner Arbeit mit Derby-Datenbanken beachten solltest:

  • Auf Derby-Datenbanken kannst Du nur mit Programmen zugreifen, die JDBC als Datenbankschnittstelle unterst├╝tzen. Dies sind in der Regel daher ÔÇ×nur" JAVA-Anwendungen

  • Programme haben auf Derby-Datenbanken im "Embedded" Modus einen exklusiven Zugriff. Das bedeutet, es kann immer nur ein Programm aktiv auf eine Datenbank zugreifen. Dies kann bei beim Wechsel zwischen DBeaver und KNIME h├Ąufiger mit einer Fehlermeldung enden. Du musst hier leider immer zwischen den Programmen sauber beenden bzw. die Datenbankverbindung schlie├čen und nach kurzer Zeit ben├Âtigst Du DBever auch kaum noch, da Du die Struktur der Datenbank verinnerlicht hast.

Im n├Ąchsten Newsletter stellen wir dann die Verbindung direkt in KNIME her und erstellen die ersten Nodes.

Vorherige AusgabeN├Ąchste Ausgabe
 
Fragen? Immer gerne fragen!
Wir sind f├╝r Dich da.
Schreib uns gern jederzeit
eine E-Mail an kontakt@wngmn.de oder
ruf uns einfach kurz an: +49 40 22868040

Bis bald,
Deine Wingmen
Anckelmannsplatz 1, 20537 Hamburg, Germany
Wingmen Online Marketing GmbH Logo