Wirklich wahres Wingmen SEO Wissen für wache Webmarketer #266
Wingmen Online Marketing GmbH Logo
Lara Hornung
Lara Hornung
Werkstudentin
🦕 Newsletter Dino-Edition: Frische News aus der Urzeit

Am Wochenende war ich im Naturkundemuseum in Stuttgart und habe festgestellt: Dinosaurier sind beeindruckend und ausgestopfte Tiere sind… na ja… gruselig. Ich schwanke noch zwischen “Wow, Bildung!” und “Hilfe, dieser Luchs verfolgt mich mit Glasaugen”. Aber hey, wenigstens gab’s keinen Handyempfang im Dino-Saal. Vielleicht ist das der wahre Luxus unserer Zeit.

Zurück in der Gegenwart (und im WLAN) warten frische Themen auf Dich. Diese Woche liefern:

  • Fossil Florian zum Google Core Update aus dem Juni
  • Brachiosaurus Behrend zum BigQuery Bulk Data Export
  • Carnosaurier Cleo über neue AI-Mode Funktionen in den USA
  • Jurassic Johan über neue und alte Browser
  • Claw Caro über Googles Best Practices

Also, Kaffee schnappen, Hirn einschalten und los geht’s.

Viel Spaß beim Lesen!

Deine Wingmenschen

Was wir gelesen haben
Florian Hannemann
Florian Hannemann
Trainee
Google Core Update Juni 2025 – Das ist passiert

Am 30. Juni hat Google das zweite Core Update dieses Jahres gestartet und nach über zwei Wochen war es am 17. Juli abgeschlossen. Das Update dauerte rund 16 Tage und 18 Stunden.

Was ist ein Core Update?

Core Updates sind mehrmals im Jahr stattfindende zentrale Algorithmusanpassungen, mit denen Google regelmäßig die Qualität seiner Suchergebnisse verbessern will. Genaueres zu Core Updates generell kannst Du auf Googles Core-Update-Seite nachlesen. Inhalt dieses Updates war laut Google:

"A regular update designed to better surface relevant, satisfying content for searchers from all types of sites."

Was ist passiert?

Wie immer bei Core Updates, war die Zeit zwischen dem 30.06. und 17.07. geprägt von großen Ranking-Schwankungen. Neben der üblichen Volatilität deuten erste Signale darauf hin, dass Einzigartigkeit und Differenzierung von Inhalten bei diesem Update besonders im Fokus standen.

Vor dem Hintergrund der aktuellen AI-Entwicklungen betont Google, dass Inhalte einen neuen, eigenständigen Blickwinkel auf ein Thema bieten sollen. Also nicht einfach nur Zusammenfassungen oder Kopien bereits vorhandener Inhalte. Denn genau das kann generative AI inzwischen oft selbst besser. Zusätzlich dazu sind AI-Overviews während des Core Updates noch prominenter geworden und häufiger vertreten.

Interessant ist auch: Einige Domains, die 2023 stark durch das Helpful-Content-Update (HCU) eingebüßt haben, konnten nun teilweise wieder Boden gutmachen. Glenn Gabe dokumentierte auf X einige dieser Entwicklungen:

"Starting on 7/6 I'm seeing a number of sites impacted by the September HCU(X) surge. It's early and they are not back to where they were (at least yet)... but a number of them are surging which is great to see." → Mehr dazu hier bei SERoundtable.

Einige SEOs berichten zudem, dass nischige Webseiten mit klarer Themenfokussierung, hoher inhaltlicher Tiefe und Originalität an Sichtbarkeit gewonnen haben. Das könnte ein gezielter Schritt von Google sein, um Inhalte hervorzuheben, die sich von der generischen AI-Flut abheben.

Google selbst weist allerdings auch darauf hin, dass Änderungen auch noch bis zu zwei Wochen nach Abschluss des Updates auftreten können. Dementsprechend sind aktuelle Beobachtungen immer noch etwas mit Vorsicht zu betrachten. Diese Liste von Google zum Core Update 2019 kann dennoch hilfreich zur Hinterfragung Deiner Domains nach einem Core Update sein.

Warum ist das Update für uns wichtig?

Core-Updates gehören zu den größten Stellschrauben im Google-Algorithmus – entsprechend groß sind ihre Auswirkungen auf Rankings. Für uns SEOs heißt das erhöhte Volatilität, unklare Signale und oft auch Unsicherheit. Die Verkündung eines neuen Core Updates ist für SEOs eher selten der perfekte Start in den Tag.

Aber jetzt, da das Update durch ist, lohnt sich ein genauer Blick: Welche Seiten sind betroffen? Was sind mögliche Ursachen? Und vor allem: Was lässt sich daraus lernen?

Fazit

Wenn Du in den letzten Wochen ungewöhnliche Bewegungen in Deinen Rankings beobachtet hast, bist Du damit nicht allein. Jetzt ist die Zeit, in die Analyse zu gehen und Learnings daraus zu ziehen. Falls Du Hilfe dabei brauchst, melde Dich gern bei uns. Wir helfen Dir dabei, die Auswirkungen des Core Updates auf Deine Seite einzuordnen und sinnvolle nächste Schritte zu definieren.

Behrend von Hülsen
Behrend von Hülsen
Consultant
Der Big Query Bulk Data Export ist anders

Ich habe neulich angeteasert, dass ich diesen Artikel schreiben werde... Ich habe bereits dargelegt, dass sich GSC-API und Frontend nicht unterscheiden und bisher konnte mir, erwartungsgemäß, auch niemand das Gegenteil beweisen. Fakten sind nunmal schwer zu widerlegen (also zumindest außerhalb postfaktischer Logik).

Aber neben der API gibt es seit Februar 2023 den Big Query Bulk Data Export. Und Unterschiede zwischen der GSC-API und dem Big Query Bulk Data Export sind auch Fakten. Und die drösel ich Dir jetzt auf:

Warum gibt es da Unterschiede?

Ganz einfach: Datenbanken sind teuer, also zumindest wenn man den Google Traffic weltweit für 16 Monate speichert. Für den kostenlosen Service der Google Search Console hat Google den Zugriff daher kostensparend limitiert. Google sagt dazu: The remaining data will be large enough to create a representative sample of data.

Das stimmt im Groben. Aber in einer gewissen Größenordnung gibt es häufig Properties, bei denen über 50% der Impressions wegfallen. Klicks sind in der Regel weniger stark betroffen, aber sehr breit aufgestellte Properties weisen auch hier mitunter signifikante Unterschiede auf.

Worin liegt der Unterschied?

Wenn Du in meinem letzten Artikel über Fehlerquellen zwischen GSC-Frontend und der GSC-API bei Punkt 7 gedacht hast, dass das genau Dein Problem ist und genervt warst, dass ich Dir dort nicht schon weitergeholfen habe, wirds jetzt für Dich interessant:

Die GSC-API hat ein Limit von 50.000 Zeilen pro Tag und Suchtyp beim Abruf (also beim Ziehen der Rohdaten aus der Datenbank, nicht bei der Ausgabe-Antwort über die API).

Der Bulk Export hat dieses Limit nicht. Daher bekommt man in dem BigQuery Export ein deutlich größeres Stück Longtail-Rankings ausgegeben, die über die GSC direkt oder die API nicht abgerufen werden können.

Wenn deine Domain also genug Rankings hat, um ggf. 50.000 Zeilen des Exports zu sprengen (das geht in der byPage-Logik schneller, als man denkt), dann verpasst Du ohne den Bulk-Export relevante Daten.

Ich habe mit folgender Query einzelne Tage großer Property-Bulk-Exporte mit den Ergebnissen über die GSC-API abgeglichen. Und das Ergebnis stimmt exakt überein:

SELECT

  data\_date, url, query, device, country, is\_amp\_top\_stories, is\_amp\_blue\_link, is\_job\_listing, is\_job\_details, is\_tpf\_qa, is\_tpf\_faq, is\_tpf\_howto, is\_weblite, is\_action, is\_events\_listing, is\_events\_details, is\_search\_appearance\_android\_app, is\_amp\_story, is\_amp\_image\_result, is\_video, is\_organic\_shopping, is\_review\_snippet, is\_special\_announcement, is\_recipe\_feature, is\_recipe\_rich\_snippet, is\_subscribed\_content, is\_page\_experience, is\_practice\_problems, is\_math\_solvers, is\_translated\_result, is\_edu\_q\_and\_a, is\_product\_snippets, is\_merchant\_listings, is\_learning\_videos,

  SUM(impressions) AS impressions, SUM(clicks) AS clicks, SUM(sum\_position) AS sum\_position

FROM

  \``$byPage-dataset\_url\_impression\`` # byPage dataset

WHERE

  data\_date = "$datum" # Achtung: das limit ist pro tag. wenn Du einen längeren Zeitraum abrufst, passt es wieder nicht

  AND search\_type = "$searchtype" # WEB, IMAGE, VIDEO, DISCOVER etc..

  AND query IS NOT NULL # Anonymized queries rauswerfen. Falls du ohne Queries abfragst, fällt dieser filter ggf weg

GROUP BY

  url, query, device, country, is\_amp\_top\_stories, is\_amp\_blue\_link, is\_job\_listing, is\_job\_details, is\_tpf\_qa, is\_tpf\_faq, is\_tpf\_howto, is\_weblite, is\_action, is\_events\_listing, is\_events\_details, is\_search\_appearance\_android\_app, is\_amp\_story, is\_amp\_image\_result, is\_video, is\_organic\_shopping, is\_review\_snippet, is\_special\_announcement, is\_recipe\_feature, is\_recipe\_rich\_snippet, is\_subscribed\_content, is\_page\_experience, is\_practice\_problems, is\_math\_solvers, is\_translated\_result, is\_edu\_q\_and\_a, is\_product\_snippets, is\_merchant\_listings, is\_learning\_videos

ORDER BY

  clicks DESC,

  impressions DESC # zur Sortierung nach impressions habe ich nix in der dokumentation gefunden, und hat auch in meinen tests keine unterschiede gemacht, aber es ist schlüssig, dass man danach auch sortiert. oder vielleicht nicht um rechenleistung zu sparen.

LIMIT

  50000

Die eigentliche API-Datenbank-Abfrage ist etwas anders gestrickt und effizienter aufgebaut, aber das Ergebnis stimmt, wie gesagt, exakt mit der API überein.

Wenn Du möchtest, kannst Du also mit einer unnötig umfangreichen und langsamen Query alle Vorteile des Bulk-Exports künstlich wieder aus den verfügbaren Daten raushalten. Toll oder?

Was macht die Unterschiede aus?

Was Du verpasst, sind hauptsächlich Longtail-Keywords.

Im Ergebnis sind in den Big Query-Daten:

  • die Anzahl der Keywords massiv höher
  • die gesamten Impressionen signifikant höher
  • die Klicks nur schwach höher
  • die CTRs entsprechend schlechter
  • die Positionen...

Der Effekt ist in den byPage-Daten deutlich stärker als in den byProperty-Daten, weil jede URL mehr Zeilen produziert und somit das API-Limit von 50.000 Zeilen pro Tag schneller erreicht ist.

Außerdem gilt:

  • Big Query-Daten sind ausschließlich finalisierte Daten.
  • Anonymized Queries werden aggregiert ausgegeben und müssen ggf. bewusst herausgefiltert werden
  • Search Types sind alle in einer Tabelle. Für den korrekten Vergleich muss man hier auch korrekt filtern.

und aus leidvoller Erfahrung noch folgender Tipp für Dich:

Falls jemand an den BigQuery-Einstellungen oder Zahlungsdaten rumgespielt hat, kann es passieren, dass für einen Zeitraum keine Daten importiert wurden. Wenn Du neu mit einem Datenset arbeitest, das Du nicht selbst angelegt hast, lohnt es sich, einen Blick auf die data_date-Werte, um etwaige Lücken zu erkennen.

Was kannst Du noch vergleichen, was nicht?

Grundsätzlich sind die Daten vergleichbar, wenn man sorgsam die gleichen Filter wie in GSC-API/Frontend setzt. Aber je größer Deine Domain ist und je mehr Rankings Du hast, desto größer wird die Differenz. Wie gesagt, bei großen, longtailigen Properties werden schonmal >50% mehr Impressionen über den Bulk-Export ausgegeben. In Einzelfällen haben wir sogar schon 20-30% mehr Klicks in BigQuery-Daten gesehen.

Aber:

Die Trends sind in der Regel gleich. Wenn der Traffic laut BigQuery um x% einbricht oder wächst, sind es in der Regel auch im Frontend (oder Via API) näherungsweise die gleichen x%.

Du wirst im Alltag in der Regel für die gleiche Fragestellung mit beiden Datenquellen zu den gleichen Erkenntnissen/Entscheidungen kommen.

Aber bei der Analyse des Longtail-Traffics sind die BigQuery Daten heutzutage für viele Properties ein Muss. Die Menge an Informationen, die hier schlummert, ist zu groß.

Für Properties mit einem sehr breiten Keyword und URL-Set kann es auch sein, dass ein signifikanter Teil Klicks ohne BigQuery verloren geht.

Wie groß ist der Unterschied für Deine Property?

Daniel Weisberg schreibt in seinem GSC Deep Dive:

“A few very large websites can be affected by this, but even for those we believe the remaining data will be large enough to create a representative sample of data.”

Damit hat er grundsätzlich recht, aber: "very few" macht einen erstaunlich großen Anteil der Properties aus, bei denen wir den Vergleich machen konnten (der Fairness halber sei gesagt: in unserer Stichprobe sind very large Websites möglicherweise auch überrepräsentiert...).

Zweites aber:

Queries werden in Zeiten von LLMs immer individueller. Der Longtail wächst, während der Midtail schrumpft. Das bedeutet naturgemäß, dass wir SEOs uns mehr mit dem Longtail beschäftigen müssen... Je stärker das wird, desto spannender wird das Mehr an Daten aus dem Bulk Export. Spätestens wenn Deine Domain auch Unterschiede in den Klickzahlen aufweist, wird es Zeit, über BigQuery als Quelle für Analysen nachzudenken.

Wenn Du weniger als 50.000 Impressionen pro Tag in Deiner GSC-Property siehst, wirst Du in BigQuery keine zusätzlichen Daten finden, denn es können nicht mehr Zeilen als Impressionen in der Datenbank entstehen.

An sich kannst Du dann hier auch aufhören weiter zu gucken. Aber in dem Fall bleibt die Menge an Daten, die in BigQuery einlaufen, auch locker so klein, dass keine Kosten für BigQuery anfallen (sofern Du die 10 GB for free nicht schon anders nutzt). Also verursacht der GSC-Export auch keine Mehrkosten.

Wenn Du mehr Traffic hast, solltest Du es zumindest mal ausprobieren und gucken, wie groß der blinde Fleck bei Deinen GSC-Properties ist.

Ich empfehle einen einfachen Test über die GSC-API. Nimm dazu folgende Query und frage sie in der GSC-API für Deine Property ab:

{

  "aggregationType": "BY\_PAGE",

  "dataState": "FINAL",

  "dimensions": \[

    "QUERY",

    "PAGE",

    "COUNTRY",

    "DEVICE"

  \],

  "type": "WEB",

  "startDate": "2025-07-01",

  "endDate": "2025-07-01",

  "startRow": 40000,

  "rowLimit": 25000

}

Diese Abfrage fragt einen Tag (wenn der 2025-07-01 für Dich kein repräsentativer Tag war, setze einen anderen ein) mit allen möglichen Dimensionen ab, um möglichst nah an die Gesamtzahl der Zeilen zu kommen. Dabei werden mittels startRow die ersten 40.000 Zeilen ignoriert, da das maximale rowLimit 25.000-Zeilen pro query sind, aber uns die Annäherung an 50.000 interessiert.

Wenn Du keine API-Verschnüffelung hast, kannst Du das auch einfach auf der Dokumentationsseite im Browser machen. Dafür klickst Du auf der API-Reference für die Search Analytics Schnittstelle auf “try it now”.

Da man Search-Appearance nicht mit als Dimension abfragen kann, ist das nur eine Näherung, aber in der Regel völlig ausreichend.

Wenn diese Query leer ist, hat die Abfrage weniger als 40.000 Zeilen für den abgefragten Tag produziert. Da könnte durch verschiedene Search-Appearance noch ein paar Zeilen mehr drin sein, aber solange deine URL-Anzahl oder Dein Traffic nicht signifikant steigen, ist da noch Luft, bevor GSC-API und Big Query Unterschiede zeigen.

Wenn in der Abfrage Ergebnisse sind, dann ist im Bulk-Export langfristig ziemlich sicher ein wenig mehr an Daten drin. Wenn es mehr als 19.000 Ergebnisse sind, teste auch noch ein paar andere Tage. Wenn das immer wieder vorkommt, dann kommst Du wahrscheinlich täglich über den Schwellwert.

In dem Fall rate ich Dir dringend, den Bulk-Export zumindest mal Testweise einzurichten. Spätestens wenn die letzten Ergebnisse aus der API noch Klicks haben, ist es Pflicht, den Bulk-Export zu testen!

Vielleicht sind es nur ein paar Impressionen von Zufallsrankings mehr, mit denen Du vielleicht nie relevanten Traffic machst, vielleicht ist es aber auch ein größeres Stück vom Kuchen. Je mehr Traffic, desto größer ist die Wahrscheinlichkeit, dass wertvolle Informationen über Deinen Longtail-Traffic unter den Tisch fallen würden. Sicher wissen kannst Du es nur, wenn Du es mal ausprobierst.

Was kostet BigQuery

Selbst bei großen Domains reichen die erwähnten freien 10 GB locker, um das ein paar Wochen zu testen.

Falls Du mehrere hundert Millionen Impressionen im Monat in deiner GSC Property siehst, könnte das schon im ersten Monat knapp werden mit den 10 GB... aber dann kann es Dein Geschäftsmodell hoffentlich verkraften, wenn da beim Test versehentlich 10€ BigQuery Kosten anfallen... Deine Opportunitätskosten der Arbeitszeit, die es braucht, auf BigQuery-Daten zu gucken und zu prüfen, wie groß der Unterschied ist, ist betriebswirtschaftlich auf jeden Fall relevanter.

Da die Felder mit dem größten Speicherbedarf die URLs und Keywords sind, lassen sich die exakten Speicherkosten einer Property schwer vorhersagen. Wahrscheinlich sind es nicht über 100€ für 24 Monate (und das freie TiB Abfragevolumen knackt man nur, wenn man den Abfrageprozess nicht im Griff hat und Abfragen unnötig häufig wiederholt und dazu eine große Property hat).

Nach ein paar Wochen, kannst Du aber abschätzen, wie viel Speicherbedarf pro Monat in BigQuery bei Deiner Property anfallen würden und den Preis einfach hochrechnen (https://cloud.google.com/bigquery/pricing?hl=en#storage).

Brauchst Du BigQuery

Das ist am Ende Deine Entscheidung. Mit den beschriebenen Tests kannst Du einschätzen, was Dir ohne Bulk-Export durch die Lappen geht. Vielleicht reicht Dir das Wissen schon, um den blinden Fleck einkreisen zu können.

Auch wenn der Unterschied bei Deiner Property nicht so riesig ist, schadet es aber auch nicht, die BigQuery Daten mitlaufen zu lassen (sofern es Dir nicht zu teuer ist). Insbesondere wenn Du Dich für unterschiedliche Search Appearance interessierst, sind die Daten des Bulk-Export besser zu verarbeiten.

Unabhängig davon gibt es noch einen weiteren guten Grund für den Bulk-Export:

Wenn Du (oder Dein Chef) für Dein Reporting einen vollen Vorjahresvergleich möchtest und nicht nur die 16 Monate der API, dann ist das mit dem BigQuery Export langfristig möglich. Denn wie lange die Daten aufbewahrt werden, liegt dann bei BigQuery in Deiner Hand.

Frag uns gern, wenn Du mehr zum GSC Bulk Export und Big Query wissen willst.

Cleo Lauterbach
Cleo Lauterbach
Trainee
AI Mode auf Steroiden

Ab sofort stehen in den USA drei neue AI-Mode-Funktionen bereit, die auf Gemini 2.5 Pro basieren… allerdings zuerst für zahlende AI Pro- und AI Ultra-Abonnenten (Barry Schwartz prophezeit jedoch, dass es in Zukunft auch für nicht zahlende Kunden zugänglich sein wird). Wer das neue Modell im Reiter “AI Mode” auswählt, soll deutlich schnellere und präzisere Antworten auf komplexe Rechen-, Code- oder Logikfragen bekommen. Parallel zieht “Deep Search” in dieselbe Umgebung ein: Das Tool jagt Hunderte von Einzelsuchen durch den Index, verknüpft die Ergebnisse und liefert nach wenigen Minuten einen vollständig belegten Antworttext, den Google als “Recherche auf Knopfdruck” bewirbt.

Oben zentriert der weiße Titel ‚Meet AI Mode‘ mit Unterzeile ‚Ask detailed questions for better responses‘. Darunter ein breites, abgerundetes Eingabefeld. Links im Eingabefeld befindet sich ein graues, pillenförmiges Button‑Element mit Lupen‑Symbol und der Beschriftung ‚Deep Search‘.

Kostenlos (aber wer zahlt, darf das Feature häufiger nutzen) bleibt nur die dritte Neuerung: “Have AI check pricing". Wer nach einem Unternehmen sucht, sieht diese Option und statt bloß Links zu zeigen, erledigt Google jetzt richtige Recherchehandgriffe, zum Beispiel den zum Telefon. Die KI fragt dann nämlich telefonisch (whaaat) Verfügbarkeit und Preise ab, fasst die Antworten zusammen und spielt sie direkt in die Ergebnisliste zurück. Ich würde bei so einem Anruf ja gerne mal Mäuschen spielen. Google call me maybe.

Gleichzeitig legt Google die Messlatte für Konkurrenten wie Perplexity oder OpenAI höher, indem es seinen Index mit modernem LLM verschmilzt und! erstmals eine Suche „zweiter Klasse“ schafft, die ohne Abo auf weniger leistungsfähige Ergebnisse zurückgreifen muss.

Wenn Du mehr über den AI Mode erfahren willst, lies doch mal in Philipps Artikel rein.

Kleiner Reminder:

Unter dem farbigen Google‑Logo steht auf grauem Hintergrund die Meldung ‚AI Mode is experimental and may make mistakes. We’re quickly improving and evolving the experience with your feedback.‘ Darunter befindet sich ein blaues Button‑Element mit der Aufschrift ‚Try it now.

Johan von Hülsen
Johan von Hülsen
Geschäftsführender Gesellschafter
Silver Surfer braucht ein neues Brett

Ein Browser stirbt. Was bleibt?

Ich liebe neue Tools. Oder besser: Ich liebte sie. Dann wurde ich 30 – und mit jedem Jahr wurde es schwerer, meinen Stack zu hinterfragen.

Ich hab mir SublimeText-Shortcuts antrainiert, ScreamingFrog getuned, SISTRIX-URLs auswendig gelernt. Ich hab’ Skripte geschrieben, Workflows gebaut und alles so eingerichtet, wie ich es brauche.

Aber dann kam Arc. Ein Browser, der so viel richtig gemacht hat, dass ich bereit war, alles umzustellen. Tabs, die sich selbst schließen. Profile, die sich selbst organisieren. Eine Command-Bar, die wirklich hilft. Mehr Übersicht und Freude an kleinen Details.

Jetzt ist Arc tot.

Die Lücke

Ein Tool, das 90 % meines Arbeitstags bestimmt hat, wird nicht mehr weiterentwickelt. Und plötzlich merke ich: Ich bin verwöhnt.

Das sind die Features, die ich nicht mehr missen will:

  • Tabs previewen, ohne sie zu öffnen (Little Arc)
  • Command-Bar mit Screenshot-Funktion
  • Split View: Tabs nebeneinander
  • Permanente Seitentweaks (Elemente ausblenden, die stören)

Unwichtig? Vielleicht. Aber sie haben meine Arbeit besser schneller angenehmer gemacht.

Das Browser-Vakuum

Ich bin wieder auf der Suche. Es gibt viele neue Browser – am Ende ist Chromium unter der Haube, aber trotzdem: So viele ernstzunehmende Projekte wie lange nicht.

Einige klingen cool, aber sind mir zu riskant:

  • Surf, mirror – spannend, aber zu nischig
  • Zen – Arc-Klon, Open Source, aber noch roh; die Features, die mir wichtig sind, fehlen
  • Brave – zu Crypto

Bleiben die großen Player:

  • Chrome: Schnell, stabil, aber unflexibel
  • Firefox: Offen, aber lahm in Entwicklung
  • Safari: Zu rigide, zu Apple
  • Vivaldi: Feature-Monster, aber steile Lernkurve
  • Edge: Microsoft. Reicht für mich als Gegenargument
  • Opera: Innovativ, aber der Fokus ist mir nicht klar

Und dann sind da die neuen AI-Browser:

  • Comet von Perplexity
  • OpenAI Browser
  • Dia – Arc-Nachfolger, aber noch grün

Und jetzt?

Ich will nicht zurück zu Vanilla-Chrome.

Aber auch nicht in die Sackgasse eines Nischenprojekts. Features per Extension nachrüsten? Möglich, aber frickelig und nie ganz rund.

Also habe ich heute Fragen, keine Antworten:

  • Wer baut mir meinen Arc-Nachfolger?
  • Wie gehst Du mit solchen Situationen um, was sind Deine Hacks?
  • Was sind die (nicht offensichtlichen) Punkte, die Deinen Browser zu Deinem Lieblingswerkzeug machen?

Fakt ist: Auch wenn AI Agenten kommen. Mindestens die nächsten Jahre brauche ich noch einen Browser (und es wird 2026 nicht mehr Arc sein).

Und gelegentlich tut es gut, den Status Quo zu challengen, auch wenn es weh tut. Denn das Challengen des Status Quo und das Gestalten unserer Arbeitsumgebung macht uns erfolgreicher (und am Ende zufriedener) im Job. Und der Browser ist für uns das wichtigste Arbeitsmittel, nach dem Kopf, und das wird sich auch in absehbarer Zeit nicht ändern.

Caro Wendt
Caro Wendt
Consultant
Am Best Practice vorbei

Manchmal ergibt es Sinn, vom Best Practice abzuweichen.

Natürlich solltest Du immer die Google-Richtlinien befolgen, damit Du keine Penalty riskierst. Bei den Best Practices, die Google ausspricht, kann es aber manchmal helfen, sie nicht immer zu befolgen. Und zwar immer dann, wenn die SERPs es erlauben. Oder es sogar begünstigen.

Was ich meine, lässt sich in folgendem Beispiel veranschaulichen:

In unserem Fall sind wir auf Suchanfragen gestoßen, die eine Tabelle fordern. Google präferiert aber anstelle eines Featured Snippet mit einer Tabelle (oder einem AIO) tatsächlich Tabellen als Bilder implementiert.

Das siehst Du bei der Suchanfrage “größentabelle damen”:

Google Suchergebnisseite der Suchanfrage "größentabelle damen": als erstes wird die Bilder-Box angezeigt. Hier endet die above the fold Ansicht bereits

Spannenderweise folgen nach der Bilder-Box erstmal “Weitere Fragen” und dann das erste Snippet. Aber eben kein Featured Snippet mit Tabelle. Auch kein AIO. Dabei sollten Tabellen doch immer schön auslesbar als <table> ausgezeichnet werden, oder?

Die SERP zeigt uns Gegenteiliges: User sind hier klar auf der Suche nach Tabellen – und die Daten in der Tabelle als Bild zu haben, bietet sogar Vorteile. Zum Beispiel nicht erst eine Seite laden und zur Tabelle scrollen zu müssen. Und dann auch noch mehrere Tabellen in einer Bilder-Box präsentiert zu bekommen, beschleunigt den Vergleich von verschiedenen Größentabellen. Entsprechendes Klickverhalten auf der SERP wird also vermutlich diese Bilder-Box ganz oben getriggert haben.

Was bleibt Dir hier also anderes übrig, als Deine Tabelle ebenfalls als Bild auszuzeichnen?

Schauen wir uns ein weiteres Beispiel an:  “größentabelle herren”

Die above the fold mobile View der Google Suchergebnisseite der Suchanfrage "größentabelle herren": zuerst ein Snippet von P&C, darunter die Fragenbox

Hier ist dann der Treffer von P&C Düsseldorf ganz oben. Vermutlich das meistgeklickte Bild oder auch weitere Signale, weil viele User dann auf peek-cloppenburg.de weitergeklickt haben. Oder weil nicht genug Signale für Bilderklicks kamen, um gleich eine ganze Bilder-Box zu triggern. Nach der Fragen-Box folgt dann ein AIO, allerdings müsstest Du das erst einmal aufklappen, um dann auch die gesuchte Tabelle sehen zu können:

Die weiter runter gescrollte mobile View der Google Suchergebnisseite der Suchanfrage "größentabelle herren": zuerst ein AIO, darunter die Bilder-Box

Die Bilder-Box direkt unter dem AIO bietet also die erste Möglichkeit für den User, direkt mit nur einem Klick eine Tabelle ansehen zu können. (Beim ersten Snippet muss auf der Seite erst noch die Tabelle gesucht werden. Beim AIO ist zwar beim Aufklappen eine Tabelle zu erwarten, garantiert ist es jedoch nicht.)

Was würdest Du also hier tun, um für “größentabelle herren” Klicks abzugreifen?

Auch hier scheint es wieder am sinnvollsten zu sein, Deine Tabelle als Bild zu implementieren und damit in die Bilder-Box aufgenommen zu werden. Der erste Treffer lässt sich vermutlich nur schwer verdrängen. Zudem muss das AIO zunächst aufgeklappt werden und selbst dann wirst Du dort nur als eine von vielen Quellen genannt (wenn überhaupt).

Das Ganze kann man jetzt noch mit allen anderen Größentabellen-Suchanfragen durchspielen. Wichtig dabei ist nur, dass Du nicht vergisst, dass SERPs sich ändern und das nicht selten. Vor allem mit AIOs. Und je nach AIO kann es für Dich auch ein Versuch wert sein, dort als Quelle genannt zu werden. Das wäre zum Beispiel der Fall, wenn das AIO ganz oben auf der SERP ausgespielt wird und die Bilder-Box erst deutlich weiter unten. Denn dann ist die Wahrscheinlichkeit, dass das AIO auch aufgeklappt wird, deutlich höher.

Zuletzt solltest Du Deine Tabellen aber nicht einfach so als Bild implementieren, sondern unbedingt ein beschreibendes ALT-Attribut hinzufügen. Du könntest zudem darüber nachdenken, die Tabelle zusätzlich zum Bild als normale Tabelle im HTML einzubinden (mit auslesbaren <table> Element, einer <caption> und Spaltenüberschriften <th>) und die Tabelle außerdem als Bild zum Abspeichern/Download anzubieten. Dann hättest Du sogar beides. Und hättest es auch barrierefrei umgesetzt.

Getestet haben wir das für Dich leider bislang noch nicht, sollte es aber dazu kommen, werde ich Dir berichten.

Und Du? Hast du an geeigneten Stellen schon mal an Googles Best Practice vorbei gearbeitet? Vielleicht sogar auch bei Tabellen und Bildern? Oder ganz woanders? Berichte mir gerne, ich bin sehr gespannt!

Vorherige Ausgabe
 
Fragen? Immer gerne fragen!
Wir sind für Dich da.
Schreib uns gern jederzeit
eine E-Mail an [email protected] oder
ruf uns einfach kurz an: +49 40 22868040

Bis bald,
Deine Wingmenschen
Anckelmannsplatz 1, 20537 Hamburg, Germany
Wingmen Online Marketing GmbH Logo