Wirklich wahres Wingmen SEO Wissen für wache Webmarketer #243 |
|
|
🏈 Was für ein Wochenende! |
Egal, ob im linearen Fernsehen, Radio, Stream oder auf Social Media – um “Duelle” kam man weltweit nicht herum.
Ob Wahl-TV-Duell, die Bundesliga, der Superbowl oder doch der Kampf um die Dschungelkrone – es war sicherlich für alle was dabei.
Welche dieser „Competitions“ wirklich relevant oder wichtig anzuschauen war und ob sie für den jeweiligen Favoriten gut oder weniger gut ausgegangen ist, obliegt jedem Einzelnen selbst zu entscheiden.
Passend zu den (sportlichen) Höchstleistungen am Wochenende haben wir wieder fünf herausragende Newsletter Artikel für Dich – auch geeignet, wenn Du noch immer im Post Superbowl Hangover liegst und ein bisschen smoother in die Woche rein starten möchtest (wie auch der eine oder die andere unserer Kollegen/Kolleginnen):
- Center Johan, der die SEO-ROI Black Box ins Spiel bringt.
- Wide Receiver Matt über KI-Content und seinen Traffic Sprint.
- Fullback Behrend, der Zusammenhänge zwischen Republishing und Propaganda darstellt.
- Quarterback Nils mit qualvollen Quartalsquoten.
- Running Back Hannemann, der Chinas Version von Chat GPT hinterfragt.
Viel Spaß beim Lesen!
Deine Wingmenschen
|
|
Die SEO-ROI Black Box (oder wie Du SEO-Return on Investment richtig berechnen kannst) |
Ich habe ja „nichts Halbes und nichts Ganzes“ gelernt – zumindest fühlt es sich manchmal so an. Teil meines Studiums war ein wenig BWL. Und dieser Teil in mir bekommt regelmäßig schlechte Laune, wenn ich im Berufsleben die Frage höre: „Ist das denn ROI-positiv?“ Bestimmt bist Du auch schon einmal gefragt worden, wie es um den Return on Investment einer Maßnahme steht. Und mal ehrlich: Was hast Du darauf geantwortet?
Die Frage ist häufig gar nicht so einfach zu beantworten, weil meist nicht klar ist, was genau gerechnet wird. Wie schon beim Thema SEO-Ranking versuchen wir auch beim ROI manchmal, Dinge auf eine einfache Formel zu bringen – was aber schnell schiefgehen kann, wenn wesentliche Faktoren fehlen oder unklar bleiben.
Was war jetzt noch mal ROI?
Der Return on Investment (ROI, Wikipedia) ist eine Kennzahl, die angibt, ob das Geld, das wir für eine Maßnahme ausgeben, auch durch diese Maßnahme wieder eingespielt wird – und in welcher Höhe darüber hinaus. Mit der einfachen Formel
ROI = (Erfolg / Kapitaleinsatz)
berechnest Du, wie viel Gewinn (oder Verlust) Du im Verhältnis zu Deinem eingesetzten Kapital hast.
Was ist denn jetzt an der Berechnung kompliziert? Klingt doch easy.
Um den ROI zu kennen, musst Du gleich mehrere Faktoren sauber definieren:
- Erfolg: Welchen Umsatz, welche Marge oder welche Einsparungen generierst Du über welchen Zeitraum?
- Kapitaleinsatz: Welche Kosten verursacht die Maßnahme (z. B. Material, Personal, Dienstleister)?
Klingt simpel, führt in der Praxis aber oft zu Missverständnissen: Sobald eine dieser Größen nicht korrekt bemessen wird (z. B. Umsatz statt Marge oder ignorierte Opportunitätskosten), gerät der ROI schnell ins Wanken.
Typische Stolperfallen
Umsatz statt Marge
Neulich habe ich einen SEO-ROI-Kalkulator gesehen, der pauschal den Umsatz als Erfolg definiert hat. Das kann in Einzelfällen (z. B. bei SaaS-Modellen, in denen ein weiterer Kunde kaum zusätzliche Kosten verursacht) durchaus sinnvoll sein. Aber im E-Commerce oder in Beratungsmodellen sind mit dem Umsatz erhebliche Kosten verbunden (z.B. Waren, Personal, Dienstleister). Hier zählen also eher Marge oder Deckungsbeitrag als tatsächlicher Erfolg.
Versteckte oder ignorierte Kosten
Externe Ausgaben für Content-Dienstleister oder Berater werden meist berücksichtigt. Häufig übersehen werden aber:
- Interne Personalkosten (z. B. das Team, das an der Umsetzung arbeitet)
- Wartungskosten (etwa für ein neues System, das laufend betreut werden muss)
- Opportunitätskosten (z. B. ein entgangenes, potenziell lukrativeres Projekt in derselben Zeit)
- Zukünftige Kosten für technische Schulden (z. B. Redirects sauber strukturieren, damit die Pflege dauerhaft günstiger wird)
Falscher Zeithorizont
Ein Zeithorizont von 5 Jahren ist für die meisten SEO-Maßnahmen definitiv zu lang, während ein Jahr wiederum häufig zu kurz ist. Entscheidend ist, ab wann sich erste Erfolge einstellen und wie schnell diese wieder abflachen (oder welche Folgeinvestitionen nötig sind, um das Level zu halten).
Eintrittswahrscheinlichkeit
Im SEO sind wir es gewohnt, dass wir den Erfolg einer Maßnahme nicht garantieren können. Jede Aktion ist letztlich eine Wette mit bestimmter Erfolgswahrscheinlichkeit und Gewinnhöhe. Eine realistische ROI-Berechnung berücksichtigt genau das.
Meine kurze Checkliste für eine realistische ROI-Berechnung
a) Kapitaleinsatz
- Direkte Mehrkosten (z. B. Assets, Dienstleister, Tools)
- „Eh da“-Kosten (z. B. eigene Mitarbeitende, die an der Maßnahme arbeiten) und möglicherweise die Opportunitätskosten, wenn sie an dieser Maßnahme und nicht an anderen arbeiten
- Folgekosten pro Jahr (Wartung, Lizenzen, Erhalt des Erfolgs)
b) Erfolg
- Einfluss auf Traffic
- Einfluss auf Conversion Rate
- Veränderung des durchschnittlichen Warenkorbwerts bzw. Customer Lifetime Values
- Kostenreduktion (z. B. weniger Ausgaben für Server, Synergien in anderen Kanälen)
- Eventuell Image- und Brand-Effekte (wenn Du das beziffern kannst)
c) Zeithorizont
- Wie lange läuft das Projekt realistisch?
- Ab wann treten erste Erfolge ein?
- Ab wann flachen sie ab (ohne oder mit weiterer Investition)?
Eine solide ROI-Kalkulation hilft unseren Unternehmen vernünftige Entscheidungen zu treffen (und wir SEOs können helfen bessere ROI-Kalkulationen zu etablieren)
Immer wieder erlebe ich, dass SEOs sich in der ROI-Frage schwertun oder allzu optimistische Zahlen nennen. Dabei lohnt sich eine ehrliche und transparente Kalkulation gleich doppelt: Zum einen hast Du ein belastbares Argument für Dein Management oder Deine Kundschaft. Zum anderen zeigt sich häufig, dass andere Kanäle ihre Hausaufgaben nicht unbedingt besser gemacht haben – und dann steht SEO auf einmal sehr gut da.
Wie setzt Du Deine SEO-ROI-Berechnungen auf? Oder siehst Du Schwierigkeiten bei der Berechnung?
Schreib mir gerne direkt ([email protected]) oder auf LinkedIn. Gemeinsam schauen wir, welche Faktoren bei Deinem Projekt zählen – und wie Du Dein Budget gezielt und gewinnbringend einsetzt!
|
|
KI-nteressante Studie zu Chatbot-Traffic |
Es ist mal wieder Zeit für ein paar Zahlen und Fakten. Allerdings nicht von mir direkt, sondern aus einer aktuellen Studie von ahrefs. Die zeigt nämlich Folgendes: 63% aller Websites (aus der Studie) haben inzwischen mindestens einen Besuch von einem KI-Chatbot kassiert. Nette Sache. Und irgendwie mehr, als ich erwartet hätte. Das betrifft interessanterweise nicht nur die großen Brands. Auch die kleinen Fische im Teich bekommen was vom “Kuchen” (oder Algen-Salat) ab. Prozentual sogar mehr als die Big Player.
Woher kommt der besagte KI-Traffic denn?
An der Spitze der KI-Traffic-Charts? Wenig überraschend: ChatGPT. Mit stolzen 50% des gesamten KI-Traffics. Dahinter lauern Perplexity (30,7%) und Gemini (17,6%). Und die anderen? Claude, Copilot, Mistral und Jasper? Na ja, die sind mit 2% auch dabei.
Kleine Website, großer KI-Traffic?
Natürlich auch eine spannende Frage (hätte ich es nicht schon eingangs gespoilert): Welche Websites bekommen eigentlich den KI-Traffic? Hier – aus meiner Sicht – schon eine größere Überraschung, denn anteilsmäßig räumen die kleinen Websites mehr ab:
- Große Seiten bekommen nur 0,09% ihrer Views und 0,13% ihrer Besucher über KI-Tools.
- Kleinere Websites dagegen: Bis zu 0,37% der Views und 0,56% der Besucher.
Relativ gesehen also doch ein echter Unterschied! Auch wenn wir uns hier immer noch im “Null-Komma-(Fast-)Nichts-Bereich” befinden.
Tracking? Vielleicht nicht ganz so leicht
Kleiner Haken beim Thema Traffic über KI-Bots: Manche Chatbots wie Copilot verraten nicht, dass sie da waren. Ihr Traffic taucht einfach als “Direct” auf. Bedeutet: In deinen Analytics siehst Du nur einen plötzlichen Spike – ohne klaren Ursprung. Wenn also Deine “Direct”-Besucherzahlen unerwartet steigen, mischt sich da vielleicht der ein oder andere KI-Klick darunter. Ganz schön sneaky also.
Abschließende Worte
Okay, okay. Ganz ehrlich: Ich war überrascht! Weniger darüber, dass der KI-Traffic aktuell noch so vergleichsweise klein ist, sondern vor allem darüber, wie viele Websites am Ende den ein oder anderen Klick abgreifen. Speziell kleine Websites. Inklusive der KI-Klicks, die unter dem Radar durch schwirren. Wie üblich bleibt abzuwarten, wie sich das Ganze entwickelt. Aus meiner Sicht wird der KI-Anteil in Zukunft mit Sicherheit weiter steigen.
Ob dann die großen Brands auch anteilsmäßig aufholen? Gut möglich, aber nicht garantiert. Ich bin auf jeden Fall schon sehr gespannt.
|
|
Republishing als Propaganda-Werkzeug |
Wurdest Du schon mal schief angeguckt, als Du erzählt hast, dass Du SEO machst? SEOs haben für viele Leute einen schlechten Ruf. Sie sind schuld daran, dass man im Internet nur noch Mist findet und die guten Suchergebnisse von Spam überlagert werden, der einem nicht weiterhilft.
Republishing ist, wenn es falsch gemacht wird, ein Paradebeispiel dafür, warum SEOs die Suchergebnisse verschlechtern. Wer ist nicht genervt, wenn man ein Thema aktiv verfolgt und die fiesen SEO-Scammer dafür sorgen, dass man immer wieder bei Artikeln landet, die man doch schon gestern gelesen hat? Wenn wenigstens etwas Neues drinstehen würde… Aber meistens wurde nur ein bisschen am Snippet gedreht und die Timestamps aktualisiert.
Dieses einfache Mittel funktioniert in Google News und Discover nach wie vor deprimierend gut. So gut, dass Publisher es sich kaum leisten können, dieses Werkzeug auszulassen.
Was hat das jetzt mit Propaganda zu tun?
Die neue amerikanische Regierung hat auch erkannt, dass man mit Republishing einfach Präsenz in den SERPs aufbauen kann.
Ein zentrales “Wahlversprechen” der Trumpisten war großflächige Abschiebung. Damit wurde auch prompt nach der Machtübernahme medienwirksam losgelegt.
Augenscheinlich hat die Behörde aber nicht die landesweite Abdeckung hinbekommen, die man der Öffentlichkeit suggerieren wollte. Trump hat in der Vergangenheit wenig Wert auf Fakten gelegt. Also wurde das Thema künstlich aufgebauscht. Die Zuständige Behörde (United States Immigration and Customs Enforcement, kurz ICE) hat daher tausende, teils Jahrzehnte alte Meldungen über Razzien gerepublished.
Es wurde schlicht ein neuer Timestamp auf 13.000 Pressemitteilungen gesetzt. Et voilà: Wenn man danach suchte, schien es laut SERPs überall im Land krasse Meldungen über ICE Raids zu geben.
Wieso funktioniert das so einfach?
- Aktuelles Thema: Das Thema Abschiebungs-Razzien ist in den USA gerade definitiv News. Entsprechend wurde auch in den normalen SERPs das Einblenden von News priorisiert.
- Google News-Algorithmus: Der Algorithmus kann viele Relevanzsignale in der organischen Suche nicht werten. Frische News-Artikel haben keine historischen Nutzersignale, keine organisch gewachsene Verlinkung etc. Entsprechend kann der News-Algorithmus sie nicht mit einbeziehen.
- Wichtigkeit der Quelle: Für den News-Algorithmus ist die Aktualität des Inhalts und die Relevanz der Quelle (sprich der Domain/Brand) besonders gewichtet.
Wenn es in der Vergangenheit keinen Missbrauch der Timestamps von dieser Quelle gab, warum sollte man plötzlich misstrauen?
Die schiere Masse an plötzlich aktualisierten Inhalten hätte der Algorithmus möglicherweise als Signal für einen Black-Hat SEO-Trick werten können. Aber wenn da im Algorithmus Alarmglocken geklingelt haben, war die Relevanz der Quelle vermutlich trotzdem ausschlaggebend.
Wer ist relevanter für ICE-Raids, als die Pressemitteilungen der ICE-Behörde selbst? Und offizielle Regierungsquellen wurden im Rahmen der Fehlinformationsbekämpfung während der Corona-Pandemie stärker bevorzugt als früher. Wenn diese offiziellen Regierungsstellen nun selbst Teil der Fake-News-Maschinerie werden, wird es schwierig für den Algorithmus.
In der aktuellen Situation ist leider auch nicht davon auszugehen, dass Google schnell nachsteuert und ähnliche Tricksereien in Zukunft unterbindet.
Langer Rede kurzer Sinn:
Republishing durch stumpfes Anpassen eines Timestamps ist definitiv keine SEO-Best-Practice. Aber wenn man als Domain mit hoher Autorität zu einem passenden Thema schnell viel SERP-Präsenz haben will – und Dinge wie moralische Integrität und langfristige Folgen egal sind – kann man mit diesem einfachen Hebel viel heiße Luft in die SERPs blasen. Schade, dass das so ist … 😟
Und falls Du selbst (verantwortungsvoll) Republishing nutzt, gibt es noch einen Punkt, der das eindrucksvoll bestätigt hat:
Es braucht für Republishing keine neue URL, denn die hat man in diesem Fall nicht angefasst.
|
|
Qualvolles Quartal 4 für Google-Quoten |
Alphabet, die Google-Mutter, hat ihre Quartalszahlen für das Ende des Jahres 2024 vorgelegt. Diese waren für Shareholder so begeisternd, dass der Aktienkurs um 9% fiel. Für alle, die einen ETF mit amerikanischer Beteiligung haben, also nicht wundern beim Blick auf das Depot. Was hat also für den Absturz gesorgt?
Wir können zwar keine Aktionärsgedanken lesen, aber einige Ankündigungen lassen Rückschlüsse zu. So will Google 2025 noch mehr Geld in AI investieren. Satte 75 Milliarden US-Dollar und somit noch einmal knapp 30 % mehr als bisher angenommen wurde.
Ohnehin fließt schon ein substantieller Anteil der Investitionen von Google in den Aufbau von AI-Infrastruktur und die Integration in Googles Produkte. Für das erste Quartal sind 16 bis 18 Milliarden Dollar eingeplant. Gerade im Angesicht der wenigen Millionen an Entwicklungskosten, mit denen das chinesische DeepSeek kürzlich für Aufsehen gesorgt hat, könnte das den einen oder anderen Anleger ins Zweifeln bringen. Auch wenn es an diesen Zahlen mittlerweile erhebliche Zweifel gibt. (Florian hat sich das Thema DeepSeek genauer angeschaut – seinen Artikel findest Du weiter unten.)
Dazu kommt, dass das Wachstum im Bereich Cloud-Software erstmals stagniert und etwas zurückgeht. Google selbst steht mit seinen Ads-Einnahmen eigentlich gut da, die insbesondere im Q4 noch einmal zugenommen haben. Hier hatte die US-Wahl einen spürbaren Impact. Insofern vielleicht doch noch nicht alle Aktien abstoßen. Neben den blanken Zahlen gab’s aber auch noch ein paar interessante Aussagen, die wir Dir nicht vorenthalten wollen.
“Pichai said that AI Overviews, the AI-generated summaries for search queries displayed above Google's traditional links to the Web, had increased search usage.”
“The monetization rate on ads for AI Overviews, introduced last October, was approximately the same compared to traditional search ads, chief business officer Philipp Schindler said.”
AI Overviews werden mehr genutzt und Monetarisierung klappt da ungefähr so gut, wie bei den konventionellen Suchergebnissen. Zumindest nach außen sagt Google, dass es funktioniert. Wenn dem so ist, dann bleibt abzuwarten, ob sie es nicht doch irgendwann auch auf den europäischen Markt bringen wollen. Auf der anderen Seite hätte ich an Googles Stelle angesichts der weniger guten Nachrichten aus den Quartalszahlen auch nichts anderes sagen wollen.
Ebenfalls nicht vorenthalten möchte ich eine weitere Neuigkeit von Google. Zu der mein Kollege Behrend mit Blick auf die Mehrausgaben für das Thema AI kommentierte:
“Ich hoffe mal, es besteht kein direkter Zusammenhang mit diesem Thema.”
Dieses Thema war dabei ein Artikel von Wired, der auf eine Änderung von Googles Richtlinien für die Verwendung von AI eingeht. Google hatte sich 2018 auferlegt, dass die Verwendung für Überwachung und Waffen ausgeschlossen sei. Dieser Ausschluss ist in der neuen Variante nicht mehr aufzufinden.
Während Services wie Google Cloud in ihren Nutzungsbedingungen weiterhin Formulierungen zum Ausschluss der schädlichen Nutzung enthalten, muss sich Google hier schon die Frage gefallen lassen, warum der Grundsatz nicht länger in ihren AI-Prinzipien enthalten sein soll.
Viel los zum Jahresauftakt bei Google und im Mutterkonzern.
|
|
AI made in China? |
DeepSeek ist in den letzten 2 Wochen in aller Munde. Als chinesisches Pendant zu ChatGPT schlägt der Chatbot große Wellen. Es ist angeblich günstiger, schneller und besser als jede andere AI. Doch was genau steckt hinter DeepSeek und sind die Lobgesänge der Medien gerechtfertigt?
Erste Berichte über die Performance von DeepSeek sind positiv. Laut vielen Test hält das neuste R1 Modell mit dem o1 Modell von OpenAI mit. Teilweise übertrumpft es OpenAIs o1 Modell sogar in einigen Bereichen. Das im Chat Interface verwendete V3 Modell soll etwa gleichauf mit OpenAIs 4o Modell sein.
Für einen vorher unbekannten Chatbot sind das erstaunliche Ergebnisse. Allerdings gibt es auch viele Beispiele von DeepSeeks toten Winkeln. Ein Beispiel, sind Screenshots, wie diese, welche immer häufiger auftauchen:

Dass eine in China entwickelte Technologie sich nicht gegen den Willen des Staates auflehnt, ist nicht allzu überraschend. Allerdings lässt es die Frage offen, wo der AI-Bot noch von seinen Wurzeln beeinflusst sein könnte.
Vor allem mit einer Meldung hat DeepSeek allerdings die Medien geflutet:
Im Training hat das Model angeblich nur 6 Millionen USD gekostet. Verglichen mit den hunderten Millionen, die amerikanische AI-Unternehmen für ihre Modelle aufbringen, ist das lächerlich wenig. Das hat bei vielen zu Zweifeln am bisherigen AI-Markt geführt. Zweifel, welche sich direkt in Zahlen ausgedrückt haben, als der Nvidia-Aktienpreis stark gefallen ist.
Doch die Kosten würde ich genauer hinterfragen. DeepSeek hat im eigenen Bericht ganz besonders auf die Formulierungen geachtet. Aufgeführt sind nämlich 6 Millionen USD als Trainings Costs für das Modell V3.
Training Costs sind allerdings nur ein kleiner Bestandteil der Gesamtkosten und beziehen sich nur auf die GPU-Kosten während des Trainings. Die dahinter liegenden Anschaffungskosten, Betriebskosten, Personalkosten oder Entwicklungskosten für das Modell sind dort nicht mit aufgeführt.
Wie hoch die Grauziffer wirklich ist, ist unklar. Geschätzt werden die Gesamtkosten allerdings auf mindestens 500 Millionen USD bis hin zu 2,24 Milliarden USD. ChatGPT-4 hat laut Sam Altman mehr als 100 Millionen USD im Training gekostet. Die Gesamtkosten werden damit wahrscheinlich immer noch wesentlich höher sein, als die Entwicklungskosten von DeepSeek, das Narrativ ändert sich durch diese Zahlen aber deutlich.
Auf einmal ist es nicht mehr das chinesische Wunder-StartUp, welches fast ohne Kosten die großen amerikanischen Konzerne überholt. Statt David gegen Goliath scheint es einfach “nur” ein großer Schritt in der AI-Entwicklung gewesen zu sein.
Auch wenn sie ihre Kostenstruktur etwas verschönert haben, hat DeepSeek dennoch etwas geschafft, was OpenAI, Anthropic und andere nicht geschafft haben: Einen großen Durchbruch in der Finanzierbarkeit von AI.
DeepSeek R1 hat wesentlich günstigere API-Kosten:
- DeepSeek-R1 Input tokens: $0.55 per 1 million tokens
- DeepSeek-R1 Output tokens: $2.19 per 1 million tokens
- OpenAI-o1 Input tokens: $15.00 per 1 million tokens
- OpenAI-o1 Output tokens: $60.00 per 1 million tokens
(1 Millionen Tokens entsprechen etwa 750.000 Worten)
Damit ist DeepSeek etwa 27 mal billiger in der Nutzung. Und das bei relativ ähnlicher Performance. Geschafft hat DeepSeek das durch einen besseren Reasoning-Prozess und clevere Optimierungen.
Offen bleiben jedoch 2 wichtige Fragen:
- Kann man DeepSeek bedenkenlos nutzen? Wir wissen leider nicht genau, wohin die Daten von DeepSeek gehen und was mit ihnen geschieht. Ein Grund, weshalb viele Länder DeepSeek gebannt haben. Vielleicht sollten wir vorerst vorsichtig mit unserer Implementierung dieser neuen AI umgehen.
- Wie reagieren OpenAI und Co. auf DeepSeek? DeepSeeks Verbesserungen stehen schließlich auch ihnen zur Verfügung. Bedeutet das zeitnah geringere Kosten für andere APIs? Oder werden sie versuchen DeepSeek als billiges Imitat abzutun und weiter ihr Ding zu machen?
|
|
TERMINE, TERMINE: 📢 SEO-Meetup Hamburg am 18.02 🚀 |
Am 18. Februar ist es wieder so weit: Das SEO-Meetup in Hamburg steht an! Egal, ob Du Anfänger oder SEO-Profi bist – hier bekommst Du praxisnahe Einblicke in die Welt der Suchmaschinenoptimierung. Dieses Mal mit einem ganz besonderen Highlight:
Wingmensch Philipp wird als Speaker mit dabei sein! 🎤
Freue Dich auf spannende Diskussionen, wertvolle Tipps und entspanntes Networking mit Gleichgesinnten. Melde Dich jetzt an und sei dabei!
📍 Wann? 18. Februar um 19:00 Uhr
📍 Wo? Im Code Working Space in Hamburg
📍 Mehr Infos & Anmeldung: Hier geht's zum SEO Meet-Up
Wir freuen uns auf Dich! 🚀
|
|
⏳ Letzte Chance: Accessibility-Quickcheck gewinnen! |
Unser Gewinnspiel läuft noch bis heute um 00:00 Uhr! Das ist Deine letzte Gelegenheit, einen kostenlosen Accessibility-Quickcheck für Deinen Online-Shop zu gewinnen! 🔍
Nutze die Chance, um wertvolle Insights zu erhalten und Deinen Shop barrierefrei aufzustellen. Jetzt schnell noch teilnehmen:
👉 Hier geht’s zum Formular:
https://forms.gle/Bzx1rocAGQTYPjuu9
Um Mitternacht endet die Aktion – also nicht verpassen! 🎯
|
|
|
Fragen? Immer gerne fragen!
|
Wir sind für Dich da.
Schreib uns gern jederzeit
eine E-Mail an [email protected] oder
ruf uns einfach kurz an: +49 40 22868040
Bis bald,
Deine Wingmenschen
|
|
Anckelmannsplatz 1, 20537 Hamburg, Germany
|
|