Wirklich wahres Wingmen SEO Wissen fĂŒr wache Webmarketer #233 |
|
|
đ« Dubai-SEO â Der Pistazien-SEO-Newsletter mit Engelshaar |
Sag noch EINMAL Dubai-Schokolade! Es ist soweit, ich kann es nicht mehr hören und habe mittlerweile schon jegliche Lust verloren das Zeug jemals zu probieren. Vermutlich muss ich dennoch sehr ĂŒberrascht und glĂŒcklich tun, wenn mir zu Weihnachten Selbstgemachtes von den Kids gezaubert wird. Hoffentlich lieber ein Bild, oder ein Gedicht, vielleicht kein Blockflötensolo, aber bitte kein Pistaziengematsche. Obwohl, immer noch besser als geplotterte WeihnachtssprĂŒche auf Ikea-Kerzen.
Apropos Weihnachten⊠es ist mir wichtig auch in diesem Jahr wieder der Erste zu sein: gerngeschehen đ
ZuckersĂŒĂ geht es auch in der Welt des SEOs zu. Davon berichten in dieser Woche:
- Honigbienchen Nils summt den Helpful Content Blues
- Sweety Sandra zeigt sĂŒĂe Accessibility Checks
- Himbeerherzchen Behrend berichtet ĂŒber Google Tests
- MandelmÀuschen Caro knabbert an QualitÀt und AutoritÀt
- Naschkatze Florian Hannemann erinnert an neue Maps Features
So, Du kleine Zuckerschnecke! Dann mal viel SpaĂ beim Lesen!
Deine Wingmenschen
|
|
Helpful Content Blues |
Vergangenen Dienstag hat Google Mal wieder pĂŒnktlich und direkt nach Erscheinen unserer letzten Newsletter-Ausgabe das Rollout des November Core Update angekĂŒndigt.
Sollten wir demnĂ€chst jemanden von Google in die Finger bekommen, werden wir nochmal mit Nachdruck platzieren, dass sie uns einen groĂen Gefallen tun, solche AnkĂŒndigungen am Montag unserer Zeit rauszuhauen. Es ist immer Ă€rgerlich, wenn wir erst eine Woche spĂ€ter darĂŒber schreiben können.
Wenigstens ist die Meldung noch in dem Sinne aktuell, als dass Google angekĂŒndigt hat, dass das Update bis zu zwei Wochen andauern könnte. In der Beschreibung grĂŒĂt gefĂŒhlt das Murmeltier:
âThis update is designed to continue our work to improve the quality of our search results by showing more content that people find genuinely useful and less content that feels like it was made just to perform well on Search.â
Ich lass mich gerne korrigieren, aber ohne nachzusehen war eine Variation von âBessere Suchergebnisse, weniger Low Quality Sh*tâ doch auch Zielsetzung der letzten drei Updates, oder?
Soll kein Vorwurf sein. Es zeigt wohl eher auf, wie schwierig es sein kann, âgute Ergebnisseâ zu liefern und im Vorfeld zu definieren, wie man das feststellt. Denn die schon lĂ€nger angeprangerten Probleme in den Suchergebnissen sind offensichtlich noch nicht behoben.
Anfang November hat Google eingeladen in die heiligen Hallen in Mountain View, Kalifornien. Zu einem âCreators Summitâ insbesondere fĂŒr Inhaber von Seiten, die unter den Helpful Content Seiten gelitten haben.
Das Feedback war, um freundlich zu bleiben, nicht nur positiv. Viele der âCreatorsâ haben sich im Nachgang geĂ€uĂert. Eine gute Zusammenfassung (und weitere interessante AusfĂŒhrungen) dazu hat Behrend erstellt.
O-Ton des Summits scheint dabei zu sein:
- Antworten gab es keine.
- Es lag nicht an den Webseiten bzw. deren Inhalt.
- Man soll nicht auf eine Erholung durch Updates hoffen.
Dass die Reaktionen darauf keine JubelstĂŒrme waren, ist wohl nachvollziehbar. Spannend ist auch der Eindruck, dass Google eher interessiert war, Input zu guten Ergebnissen von den Websitebetreibern zu bekommen, als diesen Antworten zu liefern.
Das Thema HCU begleitet die SEO-Branche jetzt schon eine lange Zeit. NatĂŒrlich muss Google das in den Griff bekommen, wenn sie Nutzer zufriedenstellen und halten wollen.
Die Frage ist aus meiner Sicht eher, wie sehr das noch in Googles eigener Hand oder der HĂ€nde ihrer Entwickler liegt. Das Helpful Content System hat zu Beginn durch Machine Learning gelernt, was âhelpfulâ ist und was nicht, mit rĂŒckblickend mĂ€Ăigem Erfolg.
Als Laie in Sachen KI-Training frage ich mich, ob man nicht einfach genug Beispiele nachkippen mĂŒsste, bis das System vernĂŒnftig gelernt hat.
Wenn es so einfach wĂ€re, dann hĂ€tte man es schon gemacht. Und wenn jemand die Daten hat â Nutzersignale oder Feedback von Quality Ratern â dann Google. Die Tatsache, dass es also immer noch hakt, wirft daher Fragen auf. Aus meiner Sicht die spannenden zwei:
- Provokant gefragt: Ist Google die eigene KI entglitten?
- Wiegen andere Faktoren/Systeme einfach schwerer als der Punkt Helpfulness und Googles Problem liegt eher in der AbwĂ€gung, bspw. mit EEAT? Oder schlicht einer Ăberbewertung der Brand?
Gerade letzteres ergibt aus meiner Sicht Sinn. Wir erinnern uns an das Zitat des ehemaligen Google CEOs Eric Schmidt:
âBrands are the solution, not the problem... Brands are how you sort out the cesspool.â
Der Filter gegen den ganzen Schrott muss immer stĂ€rker werden, damit der Index keine MĂŒllhalde wird. Wenn die Brand aber als Faktor immer wichtiger ist, wie kann sich der Content selbst noch den Ausschlag geben?
Meine EinschÀtzung ist, dass es diese Stellschraube ist, an der Google bisher scheitert. Und sehr, sehr vorsichtig ist, weiter zu drehen, bevor der Damm bricht.
Was nicht heiĂen muss, dass die Einstufung in hilfreich oder nicht schon einwandfrei funktioniert. Sonst wĂŒrden sie die Creator vermutlich nicht fragen. Ich sehe aber das Problem, dass selbst eine einwandfreie Einordnung noch nicht das Heilmittel sein wird.
Das frustrierende daran fĂŒr SEOs ist, dass wir selber eigentlich weiterhin nichts tun können auĂer warten, nach dem Summit sogar mit Brief und Siegel.
Mittlerweile gibt es auch Beispiele fĂŒr Websites, die begonnen haben sich nach einem Tiefschlag durch das HCU zu erholen. Ein derartiges Beispiel ist Mountain Weekly News. Erholt ist aber auch relativ, weil man weit vom vorherigen Niveau entfernt ist:
Ob weitere FĂ€lle durch dieses Update dazukommen, bleibt abzuwarten. Ich wĂŒrde nicht die Luft anhalten.
|
|
Accessibility Checks mit Screaming Frog 21.0 |
Seit dem 12. November gibt es die Version 21.0 von Screaming Frog. Neben einer direkten API-Anbindung fĂŒr OpenAI, Gemini und Ollama (Chris Long hat dazu auf LinkedIn eine Anleitung und kurzen Test gepostet) und anderen neuen Features gibt es jetzt auch Accessibility Checks. Das musste ich natĂŒrlich direkt austesten.
Vorab: Damit Dir Dein Crawl Ergebnisse im neuen Tab Accessibility anzeigt, musst Du Javascript Rendering auswĂ€hlen und in den Extraction Settings âAccessibilityâ anhaken:
Das Ergebnis sieht dann so aus:
Der Tab âAccessibilityâ zeigt eine Ăbersicht, auf wie vielen Seiten es Probleme gibt und welche. Die Ergebnisse werden nach Versionen und Levels der Web Content Accessibility Guidelines (2.0 bis 2.2.) sortiert:
âWCAG compliance levels build upon each other and start from WCAG 2.0 A to 2.0 AA, then 2.0 AAA before moving onto 2.1 AA and 2.2 AA. To reach the highest level of compliance (2.2 AA), all violations in previous versions must also be achieved.â
Wird ein Problem unter âWCAG 2.0 AA Violationâ erfasst, steht es nicht mehr unter âWCAG 2.1 AA Violationâ oder âWCAG 2.2 AA Violationâ. Das ist sinnvoll, weil sonst alles doppelt stehen wĂŒrde.
Andersherum hĂ€tte ich es aber besser gefunden. Sprich, wenn alles zuerst unter der aktuellen Version (WCAG 2.2) gelistet wird. Denn die neuesten WCAG sind immer rĂŒckwĂ€rtskompatibel. Alles, was unter WCAG 2.2 ein Problem ist, ist es auch unter WCAG 2.0.
Andersherum trifft das aber nicht immer zu. Zum Beispiel ist es unter den WCAG 2.2 kein Problem mehr, wenn Elemente keine vollstĂ€ndigen Start- und End-Tags haben. Unter WCAG 2.0 und 2.1 galt das hingegen noch als Nicht-ErfĂŒllen von 4.1.1 Parsing.
Wer sich den Update-Artikel zu Version 21.0 nicht durch- oder âall violations in previous versions must also be achievedâ ĂŒberliest, könnte das Ergebnis missverstehen (Ă la: Ich hab kein Issue in der aktuellen Version also hab ich generell kein Problem).
Was ich auch etwas umstĂ€ndlich finde ist, dass leider nicht angegeben wird, welche WCAG-Kriterien betroffen sind, sondern ânurâ eine Problembeschreibung (zum Beispiel âText Requires Higher Color Contrast to Backgroundâ WCAG 2.0 AA).
Das macht es schwerer direkt in den WCAG passende Informationen dazu zu suchen. Welches WCAG-Kriterium nicht erfĂŒllt ist, erfĂ€hrt man nur ĂŒber den Link, der im Details-Tab neben âHelpâ angezeigt wird:
WĂ€hlt man eine URL aus, sieht man im unteren Details-Tab, welche Probleme es auf dieser URL gibt. Mit Klick auf eine der âIssuesâ erfĂ€hrt man, an welcher Stelle (Location on Page) das Problem auftritt.
Ăber den grĂŒnen Help-Link oben links (hier geht es zum Beispiel aus dem Screenshot) findet man dann zusĂ€tzliche Informationen, die das Problem und dessen -Lösung genauer beschreiben und wie oben schon erwĂ€hnt, die dazu gehörigen WCAG-Kriterien.
Mein Fazit zum Accessibility-Check in Screaming Frog 21.0:
- FĂŒr Accessibility-Neulinge ggf. etwas ĂŒberfordernd, da sehr umfangreich.
- FĂŒr Leute, die sich mit digitaler Barrierefreiheit schon auseinandergesetzt haben, ist der Check eine gute UnterstĂŒtzung.
- Er ersetzt aber keine manuelle PrĂŒfung. Denn auch, wenn hier sehr viele Probleme ĂŒberprĂŒft werden, sind das trotzdem noch nicht alle.
- Ob es zum Beispiel einen sichtbaren Fokus (WCAG 2.4.7 Focus Visible - Level AA) gibt, wird nicht geprĂŒft. Das Erfolgskriterium muss Deine Website aber bestehen, um den Vorgaben des BarrierefreiheitsstĂ€rkungsgesetzes zu entsprechen.
Falls Du Dich tiefer mit Barrierefreiheit befassen möchtest, komm doch heute Abend zum SEO Meet up in den Code Working Space. Da spreche ich nĂ€mlich darĂŒber, wie SEO die Barrierefreiheit verbessert.
|
|
Google testet: Braucht Google europÀische Publisher oder brauchen sie Google News? |
Google testet gerade was passiert wenn sie keine News mehr in Google News, Search und Discover anzeigen. Das ist kein schnippisch-sarkastischer Hinweis auf ein Problem in den SERPs, sondern genau das, was da steht, ein Test.
Mit 1% der Nutzer aus Belgien, Kroatien, DĂ€nemark, Griechenland, Italien, den Niederlanden, Polen und Spanien. Initial war offenbar auch Frankreich dabei, aber dort wurde laut Googles Artikelt der Test bis auf weiteres pausiert. Warum Google Frankreich aus dem Test genommen hat, wurde allerdings nicht erwĂ€hnt. Wir können nur spekulierenâŠ
Google verweist bei dem Test direkt auf ihren Umgang mit dem European Copyright Directive. Im Artikel darĂŒber wiederum verlinken sie unter dem Ankertext âNegotiationsâ auf einen Artikel ĂŒber die Verhandlungen mit VG-Wort und Co. Der Zyniker in mir sieht da einen Zaunpfahl winken. Quasi ein Leistungsschutzrechtrechtfertigungswiderlegungstest.
Falls Du Dich noch daran erinnerst: 2014 hatte bei den Verhandlungen in Spanien der Zaunpfahl nicht gereicht. Bis 2022 gab es darum 8 Jahre lang kein Google News, bis Spanien das Urheberrecht angepasst hat.
Nun können Publisher in Spanien wieder frei entscheiden, kein Geld von Google fĂŒr Traffic zu nehmen, den Google ihnen bringt oder ob sie lieber nicht in Google Ergebnissen ausgespielt werden wollen.
Nick Fox will als Neuer Chef fĂŒr Google Search und Google Ads sich hier vielleicht ein paar Argumente schaffen und Druck ausĂŒben. Und dafĂŒr wird Google das Testergebnis nicht mal groĂ schönrechnen mĂŒssen. Google ist fĂŒr die meisten Publisher Traffic-Quelle Nummer 1 und sicherlich merklich, wenn das wegfĂ€llt.
Dem VG-Wort wollte man mit dem Test noch nicht auf die FĂŒĂe treten und hat Deutschland nicht mit in den Test einbezogen. Ob in Frankreich schon eine Reaktion erfolgte, oder ob der Nebensatz zum pausierten Test dem Zaunpfahl ein Krönchen aufsetzen sollte, ist von auĂen schwer zu beurteilen.
So oder so wĂ€re es interessant den Test auch von der Publisher-Seite zu beobachten. Ich hĂ€tte groĂe Lust auf eine Analyse, wie sich Googles Test nicht nur auf den Traffic, sondern auch auf Brand-Nachfrage, Direkteinstiege oder auch andere Traffic-Quellen auswirkt, habe aber aktuell leider keinen Publisher aus den betroffenen LĂ€ndern unter meinen Kunden.
Falls Du Publisher aus Belgien, Kroatien, DĂ€nemark, Griechenland, Italien, den Niederlanden, Polen und Spanien kennst, stell doch gerne einen Kontakt mit mir her. đ
Andernfalls muss ich wohl oder ĂŒbel fĂŒr meine Analysen hoffen, dass die Verhandlungen hier eskalieren und der Test auch auf den deutschsprachigen Markt ausgeweitet wird.
|
|
Keine QualitÀt = keine AutoritÀt |
Du möchtest als Publisher fĂŒr ein bestimmtes Thema eine AutoritĂ€t aufbauen, um es in Discover und News einfacher zu haben und dadurch konstanteren Erfolg zu feiern?
Klingt erstmal total nach "einfacher gesagt als getan"? Ist es auch. Trotzdem gibt es ein paar klare Faktoren, die Dir dabei sehr helfen und die ich auch von Olaf Seydel in seinem Vortrag auf der NESS gehört habe:
- Deine Brand ist generell bekannt fĂŒr dieses Thema (auch ĂŒber Social Media PrĂ€senz, Paid Marketing, etc.)
- Deine Inhalte werden in anderen Publikationen zitiert und Du wirst als vertrauenswĂŒrdige Quelle genannt
- Deine Brand hat bedeutende Preise und Auszeichnungen zu diesem Thema erhalten
- Deine Domain wird von thematisch passenden, hochwertigen Seiten verlinkt.
- Deine Rankings decken einen möglichst hohen Anteil von diesem Thema ab (relevante Unterthemen oder auch verschiedene Blickwinkel, welche Dir nebenbei auch bessere Chancen auf Top Stories bringen)
Und:
- Du verdeutlichst mit Deiner internen Verlinkung die thematischen ZusammenhĂ€nge Deiner Themen-Cluster (hier solltest Du ĂŒbrigens schauen, dass Du nicht mit zu vielen Themencluster fĂŒr Tag-Seiten arbeitest und ĂŒber lĂ€ngere Zeit immer mal wieder aufrĂ€umen solltest â Olaf gab auch den Tipp, sich eher auf EntitĂ€ten als auf Themen zu fokussieren)
- Du kannst Autorinnen und Autoren mit Expertise in diesem Thema vorweisen und diese Expertise ist transparent kommuniziert (siehe auch Hannahs Artikel in der letzten Ausgabe)
Diese Punkte kannst Du auch als Indikatoren nutzen, um zu schauen, ob Du auf einem guten Weg bist. Wie Du daraufhin AutoritĂ€ten fĂŒr ein Thema mit verschiedenen Analyseschritten prĂŒfen kannst, hat Hannah Dir neulich in diesem Artikel aufgezeigt.
Was hat QualitÀt mit Topical Authority zu tun?
Ganz einfach: Du wirst nur von anderen als Quelle genutzt, wenn Dein Inhalt von höchster QualitÀt ist.
Deine Autorenschaft, Deine internen Verlinkung, Deine Themenabdeckung sind Dinge, an denen Du ganz konkret selber arbeiten kannst. Auszeichnungen zu erhalten, von anderen zitiert und als Quelle verwendet oder auch verlinkt zu werden, ist hingegen nicht direkt umsetzbar.
DafĂŒr musst Du konstant guten Inhalt liefern, bis es ausreicht, als sichere Quelle wahrgenommen zu werden.
DafĂŒr sollten die Informationen absolut vertrauenswĂŒrdig sein. Das wiederum funktioniert nur, indem Du fĂŒr gut recherchierte und detaillierte Informationen sorgst.
Lily Ray wurde nach ihrem Vortrag ĂŒber Google Algorithmen und Updates gefragt, worauf man sich fokussieren solle und Ihre Antwort war, seine AutoritĂ€t(en) verstehen, mehr fĂŒr diese Themen recherchieren und Autorenschaften dazu aufbauen.
Das hat mir nochmal gezeigt, dass Dir all das nicht nur hilft, Reichweite und Discover Traffic aufzubauen, sondern vor allem auch sicherer vor Google Updates zu sein (oder sich damit von solchen wieder zu erholen).
Gute QualitĂ€t fĂŒr den User oder fĂŒr Google?
Barry Adams stellte beim Panel auf der NESS klar, dass Google die QualitÀt Deiner Inhalte nicht direkt bewerten, sondern nur die entsprechenden EntitÀt(en) extrahieren kann.
QualitĂ€t benötigst Du natĂŒrlich weiterhin (fĂŒr den User, die Wahrnehmung von auĂen, Auszeichnungen und natĂŒrliche Backlinks), allerdings wissen wir ja mittlerweile, dass Google auf Nutzersignale schaut.
Das geht natĂŒrlich mit guter QualitĂ€t einher â dass Deine User besser und lĂ€nger mit Deiner Seite interagieren, hĂ€ngt aber auch von Deiner Ăbersichtlichkeit, Bedienbarkeit und verschiedenen Interaktionsmöglichkeiten ab.
Mit wertvollen Features wie beispielsweise hilfreichen Dashboards zu einem bestimmten Ereignis sorgst Du gleichzeitig fĂŒr hohe Ăbersichtlichkeit, aber auch lĂ€ngere Interaktion Deiner User.
Das kann zum Beispiel die Ăbersicht zur US-Wahl wie von der Frankfurter Rundschau sein:
Gute QualitĂ€t ist also natĂŒrlich fĂŒr den User. Aber Google muss es eben auch mitbekommen.
Eine gute User Experience bedeutet, dass Dir nicht
- 100.000 Anzeigen ins Gesicht springen,
- dass sich nicht stÀndig Inhalte und Elemente verschieben und
- dass Du Dich auf der Seite zurecht findest ohne stundenlang nach der einen Information zu suchen, betonte auch Glenn Gabe auf der NESS.
Wenn Du Dir Sorgen machst, ob Du auf Deiner Seite zu viele Anzeigen schaltest, empfiehlt Dir Glenn ĂŒbrigens, es einfach mal zu testen und zu schauen, ob und wie sich Deine User bei wie viel weniger Werbung anders verhalten und besser zurechtfinden.
Zu diesem Thema ist es hilfreich, einen Blick auf die Quality Rater Guidelines zu werfen. Dort kannst Du Dir anschauen, welche Seiten als highest oder lowest quality eingestuft werden. Weitere Gedanken zu "Wie viele Ads sind noch ok?â hat Philipp fĂŒr Dich in diesem Artikel.
TatsÀchlich gibt es keinen bestimmten Anteil an Ads, der generell zu viel ist. Es verhÀlt sich je nach Domain, Zielgruppe und Branche vermutlich ganz unterschiedlich. Am Ende ist die Frage, ob Deine User damit zurechtkommen oder nicht. Deshalb musst Du einfach testen.
Solltest Du das mal machen, dann nimm Dir nicht nur 2-3 Wochen, sondern teste unbedingt ĂŒber einen lĂ€ngeren Zeitraum.
Bedeuten alte Inhalte automatisch schlechte QualitÀt?
Nein.
Und bitte lösche nicht alte News nur, weil sie alt sind.
Alt muss nicht zwingend auch schlechte QualitĂ€t bedeuten. Das war auch Glenns Reaktion auf diese Frage im Panel auf der NESS: Ja, du solltest Content Pruning fĂŒr qualitativ schlechte Inhalte machen, aber nein, nicht weil die Inhalte alt sind.
Als qualitativ schlechte Inhalte meine ich an dieser Stelle vor allem nicht hilfreiche Inhalte, die die Suchintention nicht befriedigen.
 Dass die Wahrscheinlichkeit, schlechte Inhalte unter den Ă€ltesten News-BeitrĂ€gen zu finden, ist irgendwo logisch. Du und Deine Redaktion entwickeln sich von Jahr zu Jahr weiter und werden besser. PrĂŒfe die QualitĂ€t alter BeitrĂ€ge trotzdem unbedingt vor einer Löschung.
Dass auch Google davor warnt, kannst Du vor allem im Artikel vom Search Engine Land nachlesen.
Dazu erinnerte John Shehata, dass Du durchaus auf alte Inhalte schauen darfst, um zu prĂŒfen, ob es Inhalte gibt, die sich fĂŒr eine Konsolidierung von Evergreen Content eignen.
Was Du auf jeden Fall machen solltest, ist eine niedrigere Priorisierung von alten Inhalten, wenn es zur internen Verlinkung kommt.
Bedeutet AI Content automatisch schlechte QualitÀt?
Lily sagte auf der NESS ganz deutlich, dass Google okay mit AI Content ist, Du es aber unbedingt auch als AI Content Deinen Usern kommunizieren solltest. Transparent sei hier extrem wichtig. Nicht zuletzt, weil Du tatsĂ€chlich auch Manual Actions fĂŒr Intransparenz erhalten kannst.
Die Transparenz finde ich sinnvoll und richtig. Möchtest Du wissen, ob Mensch oder Maschine das, was Du hier liest, geschrieben hat? Ich schon.
Wie AI Content neben dem Offensichtlichen noch zu schlechter QualitĂ€t fĂŒhrt, ist, dass unzĂ€hlige Mengen an Copycat Content erstellt und in den Index gedrĂŒckt werden. Inhalte, die auf Basis der Top-3 Rankings erstellt werden und keinerlei Informationen aus erster Hand enthalten.
Also ganz wichtig: Du benötigst eigene Ideen und neue Informationen. AI kann Dir keine einzigartigen, neuen Informationen liefern.
AI kann Dir aber bei Ideen dafĂŒr helfen. ;-)
- Hast Du schon einen Workflow, um die QualitÀt Deiner Publikationen sicherzustellen?
- Nutzt Du dafĂŒr AI? Und wie gehst Du mit alten Inhalten um?
- Lieferst Du Deinen Usern eigene, neue Informationen?
|
|
Neue Maps Features fĂŒr die Feiertage |
Passend zur festlichen Wintersaison und zum bald kommenden Black Friday laufen in vielen Online-Shops die Preissenkungs-Maschinen nicht nur auf Hochdruck, sondern auch von Google kommen ein paar neue Features, um dir den Shoppingrausch zu versĂŒĂen.
Google Maps bietet ab sofort die Möglichkeit, Wetterbedingungen in Echtzeit zu sehen und selbst Berichte dazu abzugeben â so kannst Du verhindern, im Schneechaos stecken zu bleiben. Passend dazu sollen auch die Angaben fĂŒr VerspĂ€tungen im öffentlichen Verkehr prĂ€ziser geworden sein.
Zudem gibt es jetzt die Option, ĂŒber Gemini detaillierte Informationen zu Einkaufsmöglichkeiten abzurufen, um Dich beispielsweise vorab ĂŒber die Parkgelegenheiten des voll gequetschten Shopping Centers zu informieren.
Das interessanteste Feature ist jedoch, dass Google Maps nun auch eine Produktsuchen-Funktion freigeschaltet hat. Mit der VerknĂŒpfung Deines lokalen Inventars kannst Du so Deine Produkte auch auf Google Maps bereitstellen.
Nutzer können so vor dem Besuch des Ladens bereits checken, ob ihre gewĂŒnschten Artikel vorhanden sind und ihre Route entsprechend planen.
In Deutschland habe ich das Feature leider noch nicht live gesehen (zumindest wird es mir auf meinem Android Handy trotz neuster Version von Maps noch nicht angezeigt), aber so ungefÀhr sehen die Produkt EintrÀge in der USA aus:
Wie kannst Du Deine Produkte dafĂŒr qualifizieren?
Du musst 2 Grundvoraussetzungen erfĂŒllen:
Du solltest ein Merchant Center Konto besitzen und korrekt eingerichtet haben. Als zentrale Anlaufstelle, um Deine Produkte als lokales Inventar zu kennzeichnen, ist dieser Schritt unerlÀsslich.
Wie genau Du Dein Merchant Center einrichtest und worauf Du achten musst, erklÀrt Google Dir hier.
Die zweite Grundvoraussetzung ist die Implementierung des Structured Data Markups fĂŒr Produkte. Auch dazu gibt es einen Guide von Google.
ZusĂ€tzlich dazu solltest Du Deine Inventardaten natĂŒrlich immer auf dem neuesten Stand halten. Ein regelmĂ€Ăiger Abgleich mit dem Merchant Center und ein kurzer PrĂŒfblick, ob die Ăffnungszeiten auf Google Maps auch stimmen, schaden nicht.
Falls Du tiefer in das Thema strukturierte Daten eintauchen willst, kann ich Dir diesen Schema.org Artikel auf unserer Webseite oder diesen Newsletter Beitrag zum Zusammenspiel vom Merchant Center und Structured Data von Nora empfehlen.
|
|
Â
|
Fragen? Immer gerne fragen!
|
Wir sind fĂŒr Dich da.
Schreib uns gern jederzeit
eine E-Mail an [email protected] oder
ruf uns einfach kurz an: +49 40 22868040
Bis bald,
Deine Wingmenschen
|
|
Anckelmannsplatz 1, 20537 Hamburg, Germany
|
|