BigQuery Export: Einrichtung in der Google Search Console
Was ist BigQuery?
BigQuery ist ein vollständig verwaltetes, serverloses Data-Warehouse von Google, das speziell für die Analyse großer Datenmengen konzipiert wurde. Die Plattform erlaubt es Dir, SQL-ähnliche Abfragen über Milliarden von Datensätzen hinweg durchzuführen – schnell, zuverlässig und skalierbar. Anders als klassische Datenbanken musst Du bei BigQuery keine eigene Infrastruktur betreiben.
Gerade für SEOs ist BigQuery besonders wertvoll, weil es Dir über die Verknüpfung mit der Google Search Console Zugriff auf Daten verschafft, die Du auf keinem anderen Weg in dieser Tiefe und Dauer erhalten kannst.
Alles Weitere – wie die Anbindung von Google Analytics 4, Google Ads oder eigenen Crawling-Daten – ist ein wertvoller Bonus. Aber der ausschlaggebende Grund, warum wir als SEOs überhaupt über BigQuery sprechen, ist die einzigartige Möglichkeit, GSC-Daten vollständig und langfristig analysieren zu können.
Gute Gründe, warum Du es einrichten solltest
Vielleicht kennst Du das Problem: Tools wie die Google Search Console stoßen bei größeren Datenmengen und langfristiger Analyse schnell an ihre Grenzen. Besonders die GSC ist zwar ein unverzichtbares Werkzeug zur Analyse von Suchanfragen, Klicks und Sichtbarkeit – bringt aber auch einige Limitierungen mit sich, wenn Du sie ohne zusätzliche Dateninfrastruktur nutzt:
- Daten sind auf 16 Monate begrenzt – langfristige Entwicklungen oder historische Vergleiche sind kaum möglich
- Nur 1.000 Zeilen pro Bericht in der Web-Oberfläche – eine echte Herausforderung bei größeren Websites mit vielen Seiten und Keywords
- Sampling und Aggregierung führen dazu, dass feingranulare Daten verloren gehen oder ungenau dargestellt werden
- Keine einfache Verknüpfung mit anderen Datenquellen, wie z. B. Conversions aus Google Ads oder CRM-Daten
Mit BigQuery hebst Du diese Einschränkungen auf. Über den GSC Bulk Data Export kannst Du GSC-Daten in voller Tiefe speichern, regelmäßig aktualisieren und mit anderen Quellen verknüpfen. Das ermöglicht Dir unter anderem:
- Langfristige Speicherung und eigene Backups
- Keyword-Performance auf URL-Ebene über lange Zeiträume
- Custom Dashboards mit Looker Studio oder Datawrapper
- Verknüpfung von GSC-Daten mit Crawl-Daten, internen KPIs oder externen Backlink-Daten
So richtest Du den Google Search Console Export in BigQuery ein
Um den BigQuery Bulk Export einzurichten, musst Du ein verified oder delegated Owner der gewünschten GSC-Property sein (siehe: https://support.google.com/webmasters/answer/12919198?hl=en). Mit demselben Account musst Du Zugriff auf das entsprechende Google Cloud Projekt, in dem die GSC-Performance-Daten in BigQuery einlaufen sollen.
Schritt 1: Anmeldung in der Google Cloud Console
Falls Du noch keinen Account in der Google Cloud Console eingerichtet haben solltest, ist zunächst eine Anmeldung erforderlich.
Das Einloggen mit einem Google-Konto ermöglicht Dir eine einfache Registrierung. Hier kommst Du direkt zur Anmeldemaske.
Schritte der Registrierung:
- Wähle das Land aus
- Bestätige die Terms of Service
- Klicke auf Agree and Continue
Schon ist die Registrierung abgeschlossen und Du kannst ein neues Projekt anlegen.
Schritt 2: Projekt in der Google Cloud Console anlegen
In diesem Schritt legst Du ein neues Projekt für BigQuery an. Klicke dazu oben links auf den Select a project-Button.
Nach dem Anklicken öffnet sich ein Overlay, das Dir eine Übersicht über alle angelegten Projekte zeigt. Solltest Du noch kein Projekt angelegt haben, wird diese Liste leer sein.
Zum Anlegen eines neuen Projektes klicke oben rechts auf New project oder wähle ein existierendes Projekt aus.
Nun hast Du ein neues Projekt angelegt oder ein passendes Projekt ausgewählt. Bei neuen Projekten müssen in der nächsten Maske Einstellungen zu Projektname, Organisation und Speicherort vorgenommen werden. Beachte, dass hierbei eine Projekt-ID vergeben wird, die nicht mehr geändert werden kann. Unter dem Button Bearbeiten kannst Du diese vor Abschluss der Projekteinrichtung ändern.
Schritt 3: Aktivierung der BigQuery API
Als nächstes wird die BigQuery API überprüft und falls erforderlich aktiviert. Navigiere dazu in der Google Cloud Console zum Reiter APIs & Services und dort zu Enabled API & services (siehe auch https://support.google.com/webmasters/answer/12917675?hl=en).
Wähle auf der Seite APIs & Services nun Enable APIs and Services aus.
Danach kommst Du zur API-Bibliothek, in der Du nach der BigQuery API suchen kannst. Folglich wird Dir die BigQuery API angezeigt. Klicke dort auf Enable API. Ist dort ein grüner Haken, hast Du die BigQuery API aktiviert.
Schritt 4: Permissions erteilen
In diesem Schritt erlaubst Du der Google Search Console den Zugriff auf Dein Projekt und BigQuery. Gehe dazu in der Google Cloud Console auf das Menü IAM & Admin.
Hier kannst Du alle Zugriffe und Rechte deines Projektes einsehen und über Grant Access neue Zugriffsrechte vergeben.
Hierbei ist es wichtig, die von Google gegebenen Daten New Principals und die Rollen BigQuery Job User und BigQuery Data Editor zu vergeben. Nur so hast Du die Rechte, um Google Search Console Daten erfolgreich in Dein BigQuery‑Dataset zu exportieren.
Schritt 5: Bulk Data Export in der Google Search Console aktivieren
In diesem letzten Schritt wird der Export zu BigQuery in der Google Search Console aktiviert.
Dafür musst Du in der GSC ein verifizierter Eigentümer der jeweiligen Property sein – also in den Search Console Settings unter Users and permissions als Verified Owner aufgelistet sein. Nur verifizierte Eigentümer können den Export einrichten.
Wenn Du die Rechte besitzt, gehe in der Google Search Console auf den Menüpunkt Settings und aktiviere den Bulk Data Export.
Hierfür benötigst Du die vergebene Projekt-ID aus deinem Google Cloud Console Projekt. Diese überträgst Du und wählst einen Datenstandort (meist Europa) aus. Achtung: Unterschiedliche Standorte können unterschiedliche Kosten verursachen (siehe https://cloud.google.com/bigquery/pricing?hl=en).
Die Einstellungen können im nächsten Schritt nochmal überprüft werden.
Danach ist der Export in der Google Search Console aktiviert.
Nun hast Du BigQuery erfolgreich eingerichtet.
Als nächstes zeigen wir Dir, wie Du Daten abrufen und exportieren kannst.
Abruf und Export von BigQuery-Daten
-
Öffne in Deiner Google Cloud Console das Menü BigQuery
-
Öffne Dein aktuelles Projekt
-
Durch die Verbindung zur Google Search Console wird automatisch ein Datensatz erstellt
-
Projekt ausklappen und Searchconsole auswählen: Hierbei kannst Du zwischen Site-Daten (byProperty) & URL-Daten (byPage) auswählen.
Site impressions vs. url impressions
- URL = Per page impressions
- Site = Per property impressions
(Zu den Unterschieden siehe auch: https://support.google.com/webmasters/answer/7042828?hl=en#:~:text=Aggregating%20impressions%20by%20property%20or%20by%20page)
SQL-Abfragen ausführen
- Öffne BigQuery in der Google Cloud Console (https://console.cloud.google.com/projectselector2/bigquery)
- Öffne den SQL-Editor, indem Du im BigQuery-Menü auf Compose New Query klickst
- Zur Ausführung einer Abfrage füge eine SQL-Anfrage in den Editor ein, um die gewünschten Daten zu erheben
- Klicke auf Run, um die Abfrage auszuführen
Um Keyword-Daten aus einer Tabelle in BigQuery abzurufen, wird eine SQL-Abfrage benötigt. Angenommen, es gibt eine Tabelle search_console_date mit den Spalten query, clicks, impressions, und data_date.
Wir haben noch die Möglichkeit, weitere Metriken für die Tabellen searchdata_site_impression, searchdata_url_impression und ExportLog auszuwählen. Eine Erläuterungen der möglichen Metriken bzw. Spalten findest Du hier: https://support.google.com/webmasters/answer/12917991?hl=en#:~:text=Table%20schema,%3E.searchconsole.
Hier ist ein Beispiel, wie eine solche Abfrage aussehen könnte:
SQL Abfrage
SELECT
query,
clicks,
impressions
FROM
`gsc-bigquery-test-carita.searchconsole.searchdata\_site\_impression`
WHERE
data\_date BETWEEN '2024-12-01' AND '2024-12-31'
ORDER BY
impressions DESC
#LIMIT 1000;
Erklärungen zu SQL
SELECT: Hier werden die Spalten angegeben, die in den Ergebnissen erscheinen sollen (query, clicks, impressions). Tipp: vermeide SELECT * FROM sondern gib hier nur Spalten die Du wirklich brauchst. Wenn Du eine Spalte in einem Abruf nicht verwendet, geht sie auch nicht auf das Query-Budget.
FROM: Der Name der Tabelle wird spezifiziert. Der vollständige Name umfasst gsc-bigquery-test-carita.searchconsole.searchdata_site_impression.
WHERE: Dieser Abschnitt filtert die Daten nach einem bestimmten Kriterium. In diesem Beispiel werden nur die Daten aus dem Jahr 2023, im Monat Dezember, ausgewählt.
ORDER BY: Die Ergebnisse werden nach den clicks sortiert, absteigend (DESC), um die Keywords mit den meisten Klicks zuerst anzuzeigen.
LIMIT: Die Anzahl der zurückgegebenen Zeilen wird nicht beschränkt, könnten wir aber.
Weitere dokumentierte Best Practices zur Ergebnissgenerierung nach Site und URL findest Du hier: https://support.google.com/webmasters/answer/12917174?hl=en#:~:text=Best%20practices%20for%20bulk%20data%20export%20queries
Datenexport
BigQuery bietet Dir verschiedene Export-Optionen: Wähle Deine generierte Tabelle oder das Abfrageergebnis aus und klicke dann auf Export.
-
Ziel auswählen: Exportziel (Google Cloud Storage, Google Sheets oder andere Formate)
-
Export ausführen: Einstellungen überprüfen und Export bestätigen
-
Ausgabe der Ergebnisse: Results können als CSV oder als Google Sheets ausgegeben werden