Wirklich wahres Wingmen SEO Wissen fĂŒr wache Webmarketer #265 |
|
|
đ± SEO-Halbgötter in Braunschweig |
Ich habe Dir heute neben dem obligatorischen KĂ€ffchen ein zweites FrĂŒhstĂŒck ans Bett gestellt: ein göttliches Recap unseres Offsites in Braunschweig. Zwischen Löwenstatue und Fachwerkfassaden jagten wir zunĂ€chst in vier Teams bei unserem Teamevent, einer iPad-Rallye, durch die Innenstadt Braunschweigs. Wir beantworteten knifflige Fragen, lösten RĂ€tsel und legten virtuelle Fallen fĂŒr die gegnerischen Teams aus. Es war ein Kopf-an-Kopf-Rennen auf der Punktetabelle.
Die Wingmenschen aus dem Siegerteam der iPad-Rallye wurden von unserer EventfĂŒhrerin Dörte ĂŒbrigens als âHalbgötterâ ausgerufen. Eine Titulierung, die intern hartnĂ€ckig ignoriert wird, extern aber gern aufgegriffen werden darf.
Frisch gelĂŒftet ging es fĂŒr uns danach in unser Offsite-KĂ€mmerlein, wo wir uns den Themen SEO, GEO, aber vor allem Chancen angenommen haben. Es lĂ€sst sich ein klares ResĂŒmee aus unseren Sitzungen ziehen: Wir haben Appetit bekommen!
Unsere mutigen Helden haben diese Woche folgende Themen fĂŒr Dich bekĂ€mpft:
- Saskia ĂŒber die verborgenen Gefahren von Cloudflare
- Nora schieĂt ihren Pfeil ins Auge des Wegwerfcontents
- Hannemann verfasst die Epen von Google & ChatGPT
- Behrend ĂŒber das goldene Vlies der GSC Daten
- Lara entlarvt den trĂŒgerischen Multitasking-Mythos
Viel SpaĂ beim Lesen!
Deine Wingmenschen
|
|
Take good care while using Cloudflare âïž |
Nutzt Du Cloudflare? Oder vielleicht Deine Kunden? Freunde? Bekannte?
Ehrlich gesagt: Wer genau es nutzt, spielt gar keine so groĂe Rolle.
Denn aus unserer Sicht ist es fĂŒr ALLE relevant, dass man mit dem Cloudflare AI Audit Feature den Google-& BingBot blocken kann und damit Googles organischen Index von der eigenen Seite aussperrt.
Wait what??
Ja, wir waren auch erstmal skeptisch â und habenâs getestet.
Aber bevor wir zum Ergebnis kommen, lass uns kurz vorne anfangen, denn wir mĂŒssen vorab zwei Cloudflare Funktionen voneinander abgrenzen:
AI Audit (Worum es in unserem Test gehen wird) und
dem neuen Security Bot Blocking Feature
Das Security Bot Blocking Feature
Dieses Feature ermöglicht es einem, AI Bots zu blockieren. Mittels Dropdown kann ausgewĂ€hlt werden, ob man das fĂŒr alle Seiten, nur Hostnamen mit Ads oder gar nicht möchte.
Ansicht: Cloudflare Security Bot Blocking
Dieses Feature ist standardmĂ€Ăig aktiviert fĂŒr neue Accounts. Die Bots, die dadurch blockiert werden, kannst Du zum einen in der Doku von Cloudflare zu AI Bots und, weil in dieser ersten Ansicht nicht alle Bots aufgefĂŒhrt sind, auch noch einmal im Cloudflare Radar > Bots > Traffic > Directory, einsehen.
Setzt man hier den Filter auf
- AI Assistant
- AI Crawler
- AI Search
so bekommt man eine zusĂ€tzliche Ăbersicht darĂŒber, welche Bots auĂerdem geblockt werden.
Ansicht: Cloudflare Bots Directory
Wie sinnvoll das ist, da Cloudflare mit Shopify kooperiert und dadurch neue Shops im Standard erstmal auf Block stehen, wie auch Kevin Indig bestĂ€tigt, das ist Thema fĂŒr einen eigenen Artikel.
Nun also zu dem zweiten, bereits lÀnger bestehenden AI Audit Bericht.
Was genau kann der AI Audit Bericht?
Cloudflare bietet einen Bericht an, er nennt sich AI Audit, aus dem sich ablesen lÀsst,
- wie viele Zugriffe (Hits) welcher Bot erzeugt und
- ob diese Zugriffe gegen die Angaben in Deiner robots.txt verstoĂen.
AuĂerdem lassen sich gezielt Bots blockieren, mittels Kippschalter, und diese werden damit technisch komplett blockiert:
Ansicht: Cloudflare Feature Bot Blocking
In dieser Liste befinden sich, im Gegensatz zum Security Feature, auch der Google- und der BingBot.
Die unangenehme These:
Hakt man diesen Kippschalter an, weil man denkt, man wĂŒrde innerhalb des AI Audits âtestenâ oder âprobierenâ und lediglich AI-Bots ausschlieĂen, kann es passieren, dass man sich ĂŒber kurz oder lang, ganz aus dem Google Index katapultiert.
Wie kommen wir darauf?
Schaut man auf die Funktionsweise des Googlebot-Extended, der zustĂ€ndig ist fĂŒr Trainingsdaten, dann sagt Google selber darĂŒber folgendes
âGoogle-Extended doesnât have a separate HTTP request user agent string.
Crawling is done with existing Google user agent strings; the robots.txt user-agent token is used in a control capacity.â
Ergo: Googles GoogleBot-Extended stellt keine HTTP-Requests.
Wir hĂ€tten also hier einen Bericht, der unsere Seite von der Indexierung ausschlieĂen kann, ohne einen Disclaimer, der uns anschreit, damit wirklich aufzupassenâŠ
Klingt wild, oder? Das fanden wir auch, also haben wirs getestet
Das Testsetup
Um 11:43 Uhr am Samstag hat Johan das Blocking des Googlebots und des Bingbots im AI Audit live gestellt
Ansicht: Cloudflare Feature Bot Blocking
AnschlieĂend hat er einen Indexing Request fĂŒr seine Team Page gestellt
Ansicht: Search Console URL Inspection der https://wngmn.de/team/johan-von-huelsen
Und siehe da: Googlebot bekommt einen 403er zurĂŒckgeliefert. Sprich, der Bot wird ausgesperrt.
Ansicht: Cloudflare âRequests volume by Source, Setup: Source Browser = GoogleBot, BingBot & Page ist die Teamseite von Johan
Was bleibt unterm Strich?
- Dieser Bericht ist nicht nur eine Ăbersicht, wie man zunĂ€chst denken könnte und auch kein reines AI-Bot-Blocking, denn es betrifft ganz konkret auch Suchbots.
- Wer Cloudflare nutzt und innerhalb dieses Berichts sich bewegt, lĂ€uft Gefahr gleichzeitig Googles organischen Index von der eigenen Seite auszuschlieĂen.
Was bedeutet das fĂŒr Dich?
Wenn Du oder Deine Kunden Cloudflare nutzt, solltest Du genau hinschauen und ein paar Dinge im Hinterkopf behalten:
- Sei sensibel mit dem Blocken von Bots mittels Cloudflare, egal in welchem Feature oder Bericht
- Check Dein Setup und das Deiner Kunden
- Treten plötzlich Indexierungsprobleme auf, könnte dieser Bericht der Grund sein
Falls Du Support beim challengen Deines Set-ups brauchst, melde Dich gerne bei uns! đŹ
|
|
Schluss mit Wegwerf-Content: Aktionsseiten strategisch nutzen đŻ |
Der Umgang mit Aktionsseiten ist aus SEO-Sicht manchmal gar nicht so einfach. Oft hÀngt das Thema an vielen verschiedenen Befindlichkeiten:
- Kampagnenverantwortliche brauchen maximale FlexibilitÀt,
- Stakeholder wollen schnelle Sichtbarkeit,
- und SEO denkt sich leise: "Und was passiert mit der Seite danach?"
Ich kenne das aus dem Beratungsalltag nur zu gut. Gerade bei wiederkehrenden Aktionen wie Black Friday, Singlesâ Day oder Osterangeboten werden die Seiten jedes Jahr neu gebaut, weil sie genau dann gebraucht werden. Aber geht das nicht besser?
Spoiler: Es gibt nicht den einen richtigen Weg, aber es gibt definitiv bessere Strategien als den âWegwerf-Contentâ-Ansatz.
Typen von Aktionsseiten
GrundsĂ€tzlich mĂŒssen wir zwei Typen von Aktionsseiten unterscheiden:
- Einmalige Aktionen wie z.âŻB. eine JubilĂ€umskampagne, ein temporĂ€rer Sortiments-Sale oder eine spontane Kooperation. Beispiel: AEG-Traumsommer.
- Wiederkehrende Aktionen, alles, was jedes Jahr (oder sogar mehrfach jÀhrlich) stattfindet. Klassiker: Black Friday, Valentinstag, Ostern oder Back-to-School. Beispiel: Singles Day bei Nordic Nest.
Warum das wichtig ist? Weil sich daraus unterschiedliche Strategien fĂŒr Weiterleitung, Contentpflege und Deine Seitenarchitektur ergeben.
Einmalige Aktionen: Nach dem Hype wird aufgerĂ€umt đ§č
Nach Ablauf des Aktionszeitraums solltest Du aufrĂ€umen. Wenn es ein passendes Weiterleitungsziel gibt, etwa eine passende Kategorieseite oder ein Sale-Angebot, leite die Seite per 301 weiter. Gibt es kein passendes Weiterleitungsziel, sei ehrlich und sage per 404/410: Diese Seite gibt es nicht mehr. UnabhĂ€ngig davon, ob Du weiterleitest oder löscht â die Seite sollte aus der internen Verlinkung verschwinden.
Bonus-Tipp: Manchmal braucht es fĂŒr einmalige Aktionen gar keine eigene Seite. Wenn es z.B. auf Dyson Ventilatoren Rabatt gibt, reicht es vielleicht, auf der Ventilatoren-Kategorieseite mit einem entsprechenden Banner zu arbeiten und das Sorting anzupassen.
Wiederkehrende Aktionen: Evergreen statt MĂŒlleimer
Aktionsseiten, die jedes Jahr gebraucht werden, sollten bleiben. Warum?
- Eine URL, die regelmĂ€Ăig gepflegt wird, baut Sichtbarkeit auf und muss sich nicht jedes Jahr neu beweisen.
- Auch wenn die Seite gepflegt werden muss â sie muss nicht jedes Jahr von Scratch neu gebaut werden. HĂ€ufig reicht es, kleinere Dinge anzupassen. Das spart Ressourcen.
- Nur weil der Black Friday im November stattfindet, heiĂt das nicht, dass nur im November danach gesucht wird.
Laut Sistrix hatte âblack fridayâ allein im Juli 2024 rund 23.300 Suchanfragen. Noch spannender wirdâs bei Brand-Kombis:
- âformel skin black friday angebotâ hatte im Mai Ă 4.300 Suchen
- âotto black fridayâ im selben Monat Ă 1.150 Suchen
Das heiĂt: Die Nachfrage existiert â auch ohne laufende Aktion. Und genau das sollten wir SEO-seitig nutzen.
Kein Angebot? Kein Problem! Content-Ideen fĂŒr Off-Season-Phasen
Auch ohne laufende Aktionen kann Dein Content gut performen. Ein tolles Beispiel liefert MediaMarkt:
- Ein kurzer Einleitungstext informiert ĂŒber die nĂ€chsten AktionszeitrĂ€ume
- Die Seite dient als Hub fĂŒr die interne Verlinkung zu aktuell beliebten Produkten
- Micro-Conversions werden eingebaut, z.âŻB. eine Newsletter-Anmeldung
- Am Ende gibt es ein FAQ mit den wichtigsten Fragen rund um Black Friday
Ebenfalls gelungen finde ich die Black Friday Seite von Bergfreunde. Hier liegt der Fokus noch etwas mehr auf der StÀrkung relevanter Kategorieseiten.
Was ich jetzt machen wĂŒrde
- Aktionskalender aufstellen und regelmĂ€Ăig wiederkehrende Aktionen identifizieren
- Bestehende Seiten prĂŒfen. Was kann weiterverwendet oder umgebaut werden?
- Off-Season-Content planen (FAQs, Teaser, Conversions)
- Evergreen-Inhalte intern verlinken & regelmĂ€Ăig optimieren
Besonders im E-Commerce werden Kampagnen mal eben âon the flyâ gebaut und das ist vollkommen okay. Aber bei wiederkehrenden Aktionen lohnt sich eine langfristige Denkweise, denn:
- Starke URLs performen besser, je Àlter sie sind,
- Suchintents enden nicht mit der Aktion,
- Conversion-Ziele gibtâs auch ohne Sale.
Wenn Du möchtest, helfe ich Dir gern beim Sortieren oder wir entwickeln gemeinsam ein Framework, das sowohl SEO als auch Deine Kampagnenmenschen glĂŒcklich macht. đ€
|
|
Nutzt ChatGPT heimlich Google? |
Es ist bekannt, dass OpenAI Bing fĂŒr die Suchanfragen in SearchGPT benutzt. Inzwischen ist allerdings fraglich, ob Bing ĂŒberhaupt noch die Hauptquelle ist.
Der SEO-Experte Alexis Rylko hat das vor kurzem in seinem Newsletter âSEO, Data & Growthâ untersucht. DafĂŒr analysierte er die Query Fanouts, die SearchGPT bei einer Suchanfrage sendet und legte diese gegenĂŒber mit den SERPs aus der direkten Suche. Die Daten zeichnen ein klares Bild:
- Treffer-Ăbereinstimmung: Ăber 90âŻ% der von ChatGPT zitierten URLs stammen aus Googles Top-Ergebnissen. Bei Bing lag die Ăbereinstimmung bei nur 30âŻ%.
- Snippets: Die Snippets in den Antworten stimmen exakt mit denen aus Googles Ergebnisdarstellung ĂŒberein, nicht mit Bings.
- Datumsformat: Das Veröffentlichungsdatum erscheint mit dem selben Unix-Zeitstempel wie bei Google.
- JS-Inhalte: Auch Inhalte, die per JavaScript geladen werden, tauchen in Antworten auf. Das funktioniert ĂŒber eine von ChatGPT gesendete âsite:â-Abfrage. Da Bing historisch gesehen öfter Schwierigkeiten mit JavaScript hat, legt auch das die Verwendung von Google nahe.
- Tracking-Parameter: Viele Links enthalten Googles typischen ?srsltid-Parameter.
- Bevorzugte Quellen: Plattformen wie Reddit werden auffÀllig oft zitiert. Etwas, das wir auch sehr gut von Google kennen.
Wenn Du mehr darĂŒber lesen möchtest, wie Alexis das untersucht hat, empfehle ich Dir sehr, seinen Artikel dazu zu lesen.
Warum wechselt ChatGPT von Bing zu Google?
Ein möglicher Grund ist, dass Microsoft die Bing Search API abstellt. Das heiĂt, Partner können diese nicht weiter nutzen oder mĂŒssen ĂŒber Azure zugreifen. Möglicherweise hat OpenAI Sonderrechte, doch dazu hat sich keine der beiden Firmen bisher geĂ€uĂert. Andere News deuten auch nicht darauf hin:
Eine Neustrukturierung des Vertrags zwischen OpenAI und Microsoft ist seit lĂ€ngerem im GesprĂ€ch und hat in der Vergangenheit wohl schon fĂŒr einigen Streit zwischen den Parteien gesorgt. Die GrĂŒnde dafĂŒr sind vielfĂ€ltig. Microsoft ist als Investor mittlerweile tiefer in OpenAI verankert, als die Firma es wĂŒnscht. Dadurch, dass OpenAI eine Umstrukturierung zu einem For-Profit Unternehmen anstrebt, wird es zwangslĂ€ufig zu einer Umverteilung kommen, was die Debatte anheizt.
ZusĂ€tzlich dazu plant OpenAI laut The Verge ein Open-Weight-Sprachmodell, das nicht nur auf Azure, sondern auch ĂŒber Drittplattformen wie Hugging Face verfĂŒgbar sein soll. Damit öffnet sich OpenAI bewusst fĂŒr Alternativen und wendet sich von Microsoft ab.
OpenAI will in KĂŒrze auch selbst einen Browser launchen. Laut eigenen Angaben, um mit Chrome in Konkurrenz zu treten. Doch fĂŒr Microsofts Bing wird das auch keine erfreuliche Wendung sein.
Neben den vertraglichen Fragen gibt es natĂŒrlich noch eine weitere Möglichkeit: Google liefert schlicht die besseren Ergebnisse. Schnellere Indexierung, prĂ€zisere Snippets, besseres VerstĂ€ndnis von JavaScript. Wenn OpenAI Nutzererfahrung am Herzen liegt, könnte sie das ĂŒberzeugt haben.
Was bedeutet das fĂŒr Dich als SEO?
Ob OpenAI komplett auf Google gewechselt hat und was die GrĂŒnde sind, ist zwar nicht ganz klar, aber als SEOs können wir trotzdem etwas daraus mitnehmen:
- JS-Inhalte mĂŒssen fĂŒr Google verstĂ€ndlich sein, dann landen sie auch in ChatGPT
- Klar strukturierte und ansprechende Snippets lohnen sich, denn ChatGPT ĂŒbernimmt sie direkt aus den Suchanfragen
- GEO ist SEO: Gute Platzierungen bei Google bedeuten gute Chancen auf Sichtbarkeit in generativen AI-Antworten.
Fazit: Konzentriere Dich weiter auf Google und Du bist auch in den generativen Anfragen von ChatGPT vorne dabei.
|
|
Deine GSC Daten sind Gleich aber manche sind Gleicher |
Weil ich neulich mal wieder unnötig viel Zeit damit verbracht habe, Diskrepanzen zwischen einer GSC-API-Abfrage und der Darstellung im GSC Frontend zu debuggen, sei es hier noch einmal notiert:
Die GSC-API gibt die exakt gleichen Daten aus wie das GSC-Frontend. Immer. Keine Ausnahmen. Nicht mal klitzekleine.
Wenn es einen Unterschied gibt, dann weil die Filter unterschiedlich gesetzt sind.
Weil es an dieser Aussage doch immer mal wieder Zweifel gibt, habe ich eine Liste von PrĂŒfschritten geschrieben, um die Quelle fĂŒr Abweichungen zu finden., Die Liste ist nach der gefĂŒhlten HĂ€ufigkeit und PrĂŒf-Einfachheit der Abweichungen sortiert, gewichtet nach Behrends besonders berufserfahrenem BauchgefĂŒhl (höchst zuverlĂ€ssige Metrik, wenn ihr mich fragt):
1. Parallele Property-Paare
Vergleichst Du gerade versehentlich eine Domain-Property mit einer URL-Prefix-Property? Oder eine Folder-Property mit einem URL-Filter?
Ja? Ărgere Dich nicht, das passiert stĂ€ndig. Andernfalls gucken wir weiter:
2. Defekte Daten
Insbesondere tĂŒckisch, wenn Du das Frontend auf Englisch benutzt und Daten in den ersten 12 Tagen des Monats abrufst, weil die Amis ja darauf bestehen, das Datum falsch herum zu notieren. Merke: 05.06.2025â 05/06/2025. Warum das Frontend nicht konsequent das universelle, von der ISO 8601 empfohlene "YYYY-MM-DD"-Format verwendet, ist mir ein RĂ€tsel.
Und auch sonst kommt es schnell mal vor, dass der Zeitraum nicht exakt gleich abgefragt wurde.
Du erkennst Dich in diesem Szenario wieder und glaubst, dass ich an die Situation gedacht habe, als ich Dich das eine mal auf genau diesen Fehler hingewiesen habe? Damit liegst Du vielleicht richtig, aber es gibt mehrere Menschen, die ich schon einmal auf diesen Fehler hingewiesen habe. Du bist also in guter Gesellschaft.
3. Filter Fauxpas
Sind ansonsten die gleichen Filter eingestellt? Also wirklich exakt die gleichen? Gleicher Query Filter, gleicher Page Filter, gleiche Filter fĂŒr Country, Search Appearance, Device?
Auch nicht der Fehler? Na gut, nÀchster Punkt:
4. Dimensions-Debakel
Fragst Du die gleichen Dimensionen ab? Wenn Du Dir die Queries ausgeben lÀsst, oder einen Filter auf Queries setzt, werden die anonymized Queries von der Ausgabe ausgeschlossen.
Achtung: Wenn Du im Frontend die Keyword Tabelle anguckst, sind ohne einen Query-Filter die aggregierten Zahlen oben noch ungefiltert, wÀhrend in der Tabelle nur die ersten 1000 Keywords ausgegeben werden. In der API werden alle Keywords ausgegeben (bis zum API Limit von 50000 Zeilen).
Analog gilt das Gleiche fĂŒr die Page-Dimension: Beliebt ist hier zum Beispiel der Vergleich eines Page-Filters auf einen Folder mit einer Folder-Property.
Die Daten passen natĂŒrlich auch hier nicht zusammen, denn wir vergleichen byProperty- mit byPage-Logik (es sei denn, Du setzt in der Folder-Property zusĂ€tzlich einen Page-FilterâŠ).
Aber eigentlich ist Dir das ja schon beim ersten Check aufgefallen, oder?
Dimensionen stimmen alle ĂŒberein? Dann wars vielleicht:
5. Fehlende FinalitÀt
Vergleichst Du Daten der letzten Tage? Dann sind die vorlÀufigen Daten der GSC vielleicht das Problem. Das Frontend zeigt, wenn das gestrige oder heutige Datum in der date-Range ausgewÀhlt wurden, preliminary data an.
Die API dagegen zeigt per default nur die finalisierten Daten an und lÀsst die Daten von gestern und heute weg, selbst wenn Du als endDate ein aktuelles Datum vergeben hast. Um hier Preliminary Data mit einzubeziehen, musst Du "dataState" extra mit angeben.
Auch nicht der Grund fĂŒr Deine Daten-Diskrepanz? NĂ€chster Check:
6. Untypische Types
Das kommt zugegebenermaĂen selten vor/merkt man schnell, aber vergleichst zufĂ€llig gerade Ăpfel mit Birnen Websuche mit Bildersuche, oder Discover mit googleNews, oder sowas? Dann passt natĂŒrlich vorne und hinten nix zusammen.
Gut, der ist ziemlich offensichtlich... wenns das war, kommst Du Dir vermutlich gerade blöd vor. Mir geht es zumindest immer so, wenn mir das passiert :D
Wenn es das auch nicht war, ist es dann vielleicht das hier:
7. Big Query-BanalitÀten
Exakt gleich sind nur GSC-API und GSC-Frontend. Der BigQuery Bulk Data Export der GSC weist tatsĂ€chlich mehr Daten aus. Ăber die Unterschiede zwischen GSC Frontend/API-Daten und denen aus Big Query könnte ich einen eigenen Artikel schreiben...
Ups, das ist ja gar kein Checklisten Item sondern ein Teaser fĂŒr den nĂ€chsten Newsletter... Naja, was soll ich sagen... ÂŻ\_(ă)_/ÂŻ
Aber wenn Du wirklich API-Daten mit dem Frontend vergleichst und nicht Bulk Export DatenâŠ, dann:
8. Behrend behauptet Bockmist
Du hast alles geprĂŒft und Deine GSC-API-Daten passen wirklich nicht mit den Frontend-Zahlen zusammen? Es scheint Dir, dass Ich falsch liegen könnte (so unrealistisch Du es auch findest)?
Dann melde Dich gerne bei mir! Ich nehme mir gerne die Zeit, um mit Dir auf Deine Daten zu gucken, alles zu prĂŒfen und Dich eines Besseren zu belehren (oder vielleicht mich? Wollen wir wetten? Wenn wir doch eine Diskrepanz finden, die sich nicht erklĂ€ren lĂ€sst, dann schulde ich Dir ein Bier/Kaffee/Keks/eins der letzten 403 Forbidden SEO-Spiele/o.Ă. und eine Richtigstellung im Newsletter).
|
|
Multitasking: Warum es sich produktiv anfĂŒhlt, aber ineffizient ist |
Mails beantworten, wĂ€hrend man an der nĂ€chsten PrĂ€sentation feilt, mit einem halben Ohr im Call hĂ€ngen, nebenbei eine To-Do-Liste aktualisieren und vielleicht noch schnell den Slack-Status Ă€ndern. Willkommen im Arbeitsalltag 2025. Multitasking ist lĂ€ngst zum Synonym fĂŒr Effizienz geworden. Es vermittelt das GefĂŒhl, besonders viel zu schaffen, besonders schnell zu sein.
Doch genau hier liegt das Problem: Multitasking fĂŒhlt sich produktiv an, ist es aber nicht.
Der Mythos vom parallelen Denken
Unser Gehirn ist schlichtweg nicht fĂŒrs echte Multitasking gemacht. Was wir im Alltag als âgleichzeitiges Arbeitenâ erleben, ist in Wirklichkeit ein stĂ€ndiges Hin- und Herspringen zwischen Aufgaben. In der Neurowissenschaft spricht man von Task Switching. Und jedes Umschalten kostet Energie. Studien zeigen: Wer hĂ€ufig zwischen TĂ€tigkeiten wechselt, braucht im Schnitt bis zu 40âŻ% mehr Zeit und macht mehr Fehler.
Der Grund dafĂŒr liegt im prĂ€frontalen Kortex, der fĂŒr komplexe Denkprozesse, Entscheidungsfindung und Konzentration zustĂ€ndig ist. Bei jedem Aufgabenwechsel muss dieser Bereich die neue Information âhochfahrenâ, wĂ€hrend der vorherige Kontext âgeparktâ oder vergessen wird. Dieser mentale Wechsel ist wie ein stĂ€ndiges Ein- und Aussteigen aus einem fahrenden Zug. Anstrengend, unökonomisch und auf Dauer ziemlich zermĂŒrbend.
Kleine Reize, groĂe Wirkung
Warum tun wirâs dann trotzdem?
Weil unser Gehirn stĂ€ndig nach Belohnung sucht und Multitasking versorgt es mit einem bunten StrauĂ an Mini-Belohnungen: Neue E-Mails, Chatnachrichten oder Social-Media-Updates aktivieren unser dopaminerges Belohnungssystem. Kurz gesagt: Wir bekommen einen kleinen Kick. Das fĂŒhlt sich gut an, auch wenn es unsere ProduktivitĂ€t sabotiert.
Langfristig trainieren wir unser Gehirn dadurch auf stĂ€ndige Ablenkbarkeit. Das kann dazu fĂŒhren, dass es uns immer schwerer fĂ€llt, in einen Zustand tiefer Konzentration zu kommen. Ein PhĂ€nomen, das der Autor Cal Newport in seinem Buch âDeep Work: Rules for Focused Success in a Distracted Worldâ treffend als âShallow Workâ beschreibt: viel AktivitĂ€t, wenig Tiefe.
Was passiert im Gehirn beim Multitasking?
Neuroimaging-Studien, z.âŻB. mit funktioneller Magnetresonanztomographie (fMRT), zeigen, dass bei hĂ€ufigem Task Switching der dorsolaterale prĂ€frontale Cortex besonders aktiv wird. Dies ist ein Bereich, der bei kognitivem Stress und hoher mentaler Belastung eine groĂe Rolle spielt. Gleichzeitig wird die AktivitĂ€t in Arealen reduziert, die fĂŒr langfristiges Planen, GedĂ€chtnisbildung und KreativitĂ€t zustĂ€ndig sind.
Kurz gesagt: Wir sind zwar âon fireâ, aber es brennt auch schneller aus.
Multitasking im BĂŒro: der neue Normalzustand?
Besonders im digitalen Arbeitskontext ist Multitasking fast unvermeidlich. Tools wie Slack, Mails, Projektmanagement-Plattformen oder SEO-Tools arbeiten in Echtzeit und fordern genau das auch von uns. Doch gerade kreative Arbeit, strategisches Denken oder fokussierte Beratung brauchen Zeit, Tiefe und innere Ruhe.
Multitasking wirkt hier wie ein permanenter HintergrundlÀrm, der verhindert, dass unser Gehirn in den Modus des Deep Work kommt, also jenem mentalen Zustand, in dem wir wirklich in Aufgaben eintauchen und Lösungen entwickeln, die Substanz haben.
Monotasking: die unterschÀtzte Superkraft
Die gute Nachricht: Man kann lernen, besser mit dieser Reizflut umzugehen und sich bewusst gegen Multitasking entscheiden.
- Fokuszeiten blocken: Etwa mit der Pomodoro-Technik oder festen Deep-Work-ZeitrÀumen ohne Unterbrechungen.
- Benachrichtigungen ausschalten: Klingt banal, wirkt aber Wunder.
- Routinen schaffen: Feste Arbeitsorte, Musik, oder kleine Rituale helfen dem Gehirn, in den Konzentrationsmodus zu kommen.
- Eine Aufgabe â volle Aufmerksamkeit: Klingt oldschool, ist aber der effizienteste Weg zu echter ProduktivitĂ€t.
Fazit: Weniger gleichzeitig = mehr geschafft
Multitasking ist keine Superkraft, es ist ein Mythos. Unser Gehirn arbeitet am besten, wenn es sich auf eine Sache konzentrieren darf. Wer dauerhaft leistungsfĂ€hig, kreativ und gesund bleiben will, sollte lernen, den Reiz des âSchnell-viel-Schaffensâ kritisch zu hinterfragen und sich stattdessen auf das nacheinander besinnen.
Oder, ganz einfach gesagt: Weniger Tabs, mehr Klarheit.
|
|
Â
|
Fragen? Immer gerne fragen!
|
Wir sind fĂŒr Dich da.
Schreib uns gern jederzeit
eine E-Mail an [email protected] oder
ruf uns einfach kurz an: +49 40 22868040
Bis bald,
Deine Wingmenschen
|
|
Anckelmannsplatz 1, 20537 Hamburg, Germany
|
|