SMX München 2016 Recap

Every Element Counts

Nachdem wir uns auf SEO-Campixx 2016 die Hände im Maschinenkeller schmutzig gemacht haben, haben Florian, Justus und Johan auf der SMX herausgezoomt und sich den Blick von oben auf die Suchmaschinenwelt geholt. Nach einer tollen SMX kommt hier der Recap:

tl;dr: die wichtigsten Keywords der SMX 2016 sind gewesen:

  • Machine Learning
  • Index-Diät
  • Logfile-Analyse
  • HREFLANG
  • Assisten, Amazon und andere Suchmaschinen.

Der Recap-Schnellzugriff

Rand Fishkin: Optimierung für eine neue Welt: wie Google Machine Learning in die Suche integriert

Johan

Takeaway: Maschine Learning wird wichtiger. Engagement-Daten (von Menschen) trainieren die Maschinen. Trampelpfade werden immer weiter ausgetreten

    • Machine Learning ist nicht neu. Google redet seit 2012 darüber
    • Slides on Deep Learning von Jeff Dean (Slide Image Recognition) sollte man lesen
  • Machine Learning bedeutet, dass wir Maschinen bauen, die Maschinen trainieren. Wir müssen sie nur mit Daten füttern. Und die Daten sind da.
  • „Engagement is Becoming the Web’s Universal Quality Metric“ — Alle Machine Learning Algorithmen arbeiten daran. Suggests, Instagram, Twitter, Suchergebnisse. Alle lernen anhand von Interaktion und arbeiten damit als Trainingsdaten
  • 5 Taktiken für 2016ff.:
    1. User Intent aller User verstehen: Holistischer Content, thematische Facetten berücksichtigen
    2. CTR in SERPs wird noch wichtiger. Eher auf Keyword im Title verzichten, wenn es CTR deutlich erhöht. Branding! Sidenote: Google Trends als Branding Monitor
    3. Better Content > More Content. Insgesamt: Auf dauerhafte Qualität auf allen Kanälen achten
    4. User Experience first: Checklist:
      http://de.slideshare.net/randfish/fight-back-against-back/72-Speed_speed_and_more_speedDelivers
    5. CTAs optimieren. Nicht nur am Ende des Contents, sondern auch am Anfang den Nutzer einstimmen. Erneut: Nicht nur eine Zielgruppe pro Content. Ein Content sollte allen Zielgruppen zugänglich/universell einsetzbar sein.

Every Element Counts

Fazit: Engagement trainiert Maschinen, die Ranking bestimmen. SEOs müssen also Engagement optimieren.
In Zeiten von Machine Learning werden Faktoren, die korrelieren, aber bisher als nicht kausal beurteilt wurden wichtiger. Denn Machinen werden die Korrelation beachten.

Justus

Auch dieses Mal hat Rand es wieder geschafft, eine spannende und packende Keynote abzuliefern, die Bekanntes noch einmal in einem anderen Licht gezeigt hat und ich konnte einige neue Denkanstöße mitnehmen.

  • Früher: suboptimale CRO auf der Website und Nutzerverhalten wie ein Sprung zurück in die SERPs war egal solange die wenigen konvertierenden User finanziell ausreichten
  • Heute: Selbstlernende Algorithmen überall
    • Schon 2012 Machine Learning Elemente bei AdWords Anzeigen (SmartASS)
    • Google kann jetzt in Google Photos nur auf Basis des Motivs den Aufnahmeort eines Fotos bestimmen
    • Bildertagging → Katzenbild als Katze erkennen
      http://de.slideshare.net/randfish/fight-back-against-back/21-Google_is_PublicAbout_How_They
    • Spracherkennung
  • Trend: Algorithmen zum Ausspielen von Social Content werden immer komplexer und werden nicht mehr nach Veröffentlichungszeitpunkt sortiert, sondern an ihrem Engagement gemessen:
    • Instagram seit kurzem
    • Twitter zumindest mit Opt-In
    • Facebook schon eine halbe Ewigkeit
    • Sogar die App Pocket: Hier war Rand einer der ersten User und hat einen Teil seiner Reichweite auf die Plattform mitgebracht. Dementsprechend war er einer der Ersten, die Engagement gezeigt haben und wurde daraufhin immer mehr neu registrierten Usern empfohlen
    • In Gmail werden die Emails nach Engagement in die unterschiedlichen Tabs einsortiert
  • Negatives Engagement: Der Zurück-Button im Browser
  • Man kann sich nicht mehr auf seinen wenigen % konvertierender User ausruhen, sondern muss Gegenmaßnahmen einleiten:
    • Alle User abholen, auch wenn sie sich in ihren Intentionen unterscheiden
    • Snippets viel stärker auf Klicks optimieren als auf Keywords/klassische Inhaltsfaktoren
    • Fernsehwerbung & andere Brandinginstrumente, um schon in den SERPs mehr Trust zu haben und darüber höhere CTRs zu generieren.

Anmerkung von Justus: Beispiele dafür sind neben vielen anderen Zalando, Check24 oder Amorelie. Die signifikanten Erfolge sorgen dann auch dafür, dass die Konkurrenz wie eis.de sich mit dem Thema beschäftigen muss. Die Konsequenzen sieht man im Anstieg der eis.de Brandsuchanfragen.

  • High signals – low noise! Qualität ist besser als Quantität, denn schlechte(re) Posts/Emails/Tweets wirken sich auf (eigentlich gute) folgende Inhalte aus, die dann von vornherein schlechter platziert werden und eine geringere chance haben erfolgreich zu sein
  • CTAs auch oben am Content (Justus: Mehr Sprungmarken, insbesondere mobile – Burgerbutton-Menüs werden kaum genutzt und nur dann, wenn der Nutzer weiß, was er will)
  • Sollte man Authorship Markup eingebaut lassen oder sogar wieder einbauen? Warum nicht! Auch das kann ein Korrellationsmerkmal sein, an dem Google Qualität festmacht, ganz ohne vorher gezielt wissen zu müssen, was ein Autor ist.

Linktipp aus der Präsentation: Visuelle Erklärung zum Thema Machine Learning auf r2d3

Thomas Kaiser: Optimierte Keywordauswahl für erfolgreiches Suchmaschinenmarketing

Johan

Takeaway: Keywordauswahl kann über Erfolg/Misserfolg entscheiden.

  • Gefühlt zu lange Einleitung.
  • Google kriegt Synonyme und Plural besser in den Griff. Suchintention wird entscheidender als der konkrete Begriff
  • Suchanfragen werden spezifischer
  • vorgestellte Keyword-Quellen: Hypersuggest, KeywordPlanner, Wortschatz
  • Reminder: Keyword-Recherche für SEA und SEO sollte im Ergebnis unterschiedlich aussehen, um den unterschiedlichen Kanälen gerecht zu werden. Johan: Idealerweise hat man eine umfassende, kanalübergreifende Themen-/Keywordanalyse, aus der sich alle Kanäle ihren Honig saugen und die genutzt werden kann, um sich in den Kanälen die Bälle zuzuspielen.

Kai de Wals: Optimierte Texte für erfolgreiches Suchmaschinenmarketing

Johan

Takeaway: Unterschiedliche Anzeigentypen clustern und auswerten.

  • System 1 und 2 instrumentalisieren, um kurze Aufmerksamkeitsspanne auf einer Anzeige zu nutzen
  • Workflow Anzeigentext: CTA –> Einfach halten –> Dynamic Keywords inserieren (Achtung intensiv testen) –> Angebot nennen –> wichtigste Infos sharen –> Varianten testen
  • Ansätze für Anzeigenvarianten:
    • Reduzieren / Komprimieren und schrittweise erweitern
    • Fragen / direkte Nutzeransprache mal testen
    • Aktualität / Scheinaktualität. Verknappung / Noch bis zum / etc.
    • Konkret: Preise und Zahlen
    • Provokation/Emotion: Aber Provokation wieder auffangen
    • Kundenbedürfnisse in den Mittelpunkt stellen

Tipp: Anzeigen mit gewähltem Ansatz taggen und schauen, was erfolgreich ist.

Fazit: Ich bin immer noch kein Fan von SEA. Aber das Labelling von CTAs bei Anzeigen oder Descriptions ist eine schöne Idee, die durchaus übertragbar auf SEO-Snippet-Tests ist.

Jens Fauldrath: Site Architecture und Search Engine Friendly Design (SEFD)

Johan

Takeaway: Für Menschen, nicht für Suchmaschinen optimieren. Wer auf einer Produktliste landet, der braucht Hilfe.

  • SEO und UX gehen Hand in Hand. Sonst machst Du nicht SEO, sondern SPAM.
  • Wer Qualität macht, der ist Update-sicher
  • Informationsarchitektur: Strukturelles Design
    • Place of Information: Wo bin ich? Bin ich richtig? Title, H1, Bilder, Überschriften
    • Scent of Information: Wo kann ich hin? Einfache Bedienung
  • Seitenstrukturen für Bedürfnisse schaffen. Informationsqueries auf Kategorie- und Filterseiten. Nur konkrete Produkte auf Produktseiten
  • Facetted Search ist super für Abdecken unterschiedlicher Begriffe. Da einfache Bildung von Kreuzprodukten (Marke + Produktgruppe + Eigenschaft)
  • Facetted Search soll den Nutzer schneller zum Produkt bringen. Nicht ablenken. Wenn ich LED-Fernseher suche, dann keine anderen Typen in der Facette anbieten. Nutzer runterbringen, nicht hoch
  • Nutzer nicht verwirren
  • Nutzerlesegewohnheiten berücksichtigen: Skimming, Scanning, Lesen. Textwurst wird nicht funktionieren. Die kann man Lesen, aber Skimming funktioniert nicht. Auflockern, Schrift groß, liebevoll bauen.
  • Beratertexte aktualisieren. Automatisch (Preise, etc.) und inhatlich (neue Standards, etc.).
  • Tipp: Facetted Navigation von Hitmeister und cyberport

Fazit: Typischer Jens: Emotionaler Einsatz für mehr Struktur. Produktlisten verdienen mehr Aufmerksamkeit. Weniger Angst vor Ratgeberinhalten. Wenn er dem Nutzer bei der Auswahl hilft, wird der Nutzer dankbar sein.

Justus

Jens spricht mir aus der Seele mit vielen Punkten, die er in seinem Vortrag unterbringt:

  • Es geht bei SEO nicht um Sichtbarkeit, sondern einzig und allein um konvertierenden Traffic! Geld ist die KPI, keine Blackbox-Zahl aus einem SEO-Tool
  • UX = SEO und SEO = UX
  • Wenn schon das Produkt scheiße ist, hilft auch bestes SEO / Onlinemarketing nichts und man wird langfristig nicht erfolgreich sein
  • Liefer dem User doch einfach, was er will. Beispiel Paul & Shark Jacke: Auf #1 rankt http://www.peek-cloppenburg.de/marke/paul-shark/, dort gibt es aber keine einzige Jacke zu kaufen
  • Für jede Seite muss man dem User beantworten: „Wo bin ich, wo kann ich hin?“ Erfahrungsgemäß muss man weitergehen und dem User erklären, wo er hin *soll*
  • e-Commerce Suchen kann man runterbrechen auf drei Geisteszustände vs. Landingpage-Typen:
    • Problem aware → Kategorieseite
    • Solution aware → Filterseite
    • Product aware → Detailseite
  • Hör auf die User zu verwirren! Unrelevante Links, Navigationselemente, Filter etc. entweder entfernen oder so anordnen, dass das, was die meisten User brauchen, prominent platziert sind! Justus: Wenn der Nutzer schonmal da war: Historie miteinbeziehen.
  • Keine Tabs! Ergänzend: Keine Slider! Wer Content verstecken muss, macht etwas falsch
  • Auch der längste, vollständigste Text kann unlesbar gestaltet sein
  • Regelmäßig aktualisieren. Wenn man dort Zahlen und Fakten unterbringt, sollten sie direkt aus der Datenbank kommen, damit der Text nicht jedes Mal wieder angefasst werden müssen
  • Mehr Beratung in e-Commerce Shops! Der User hat niemanden außer der Website. Justus: Das ist der große User-Vorteil – man wird beraten, ohne einen nervigen menschlichen Verkäufer ertragen zu müssen. Wahrscheinlich einer der Gründe, warum BMW es schafft, Luxusautos online zu verkaufen:

    Women could potentially be a target market with BMW noting that particular demographic is generally less comfortable in the typical showroom situation and negotiating with what’s seen by some as the “enemy salesperson”

Bred Geddes: Adwords ohne Keywords

Florian

Bevor man mit Dynamic Search Ads (DSA) startet ist es wichtig zunächst einige Vorbereitende Maßnahmen als Set-Up zu betreiben. Sobald man irgendwo automatisiert Geld ausgeben will sollte man das sehr sorgfältig machen. Step 1 ist die sinnvolle Unterteilung des eigenen Produktportfolio in sinnvolle Kategorien und Unterkategorien.

How far should you segment?

Idealerweise kennt man auch die Zielgruppe bzw. das Verhalten der Zielgruppe.
Im Vortrag wurde als Beispiel ein Geschenkeportal erwähnt bei dem sich die demografischen Merkmale wie folgt aufteilen:

  • Kategorie Männer – wird zu 90% von Frauen gekauft
  • Kategorie Frauen – genau umgekehrt – 90% Männer
  • Kategorie Babys – 90% Frauen

Natürlich sind das fiktive Werte, aber es zeigt das Mindset welches man idealer Weise anwendet und noch besser: es tatsächlich mit Daten bewerten kann.
DSA kommen ohne Keywords aus. Gematcht wird auf bestehende Seiten und deren Content.
Die DSA Kampagne basiert auf einer Website deren Seitenbereiche in- bzw. exkludiert werden. Die Segmentierung ist dabei besonders wichtig, um nicht Gefahr zu laufen, dass Geld verbrannt wird. Wie bei allen automatisierten Systemen gilt: Genau monitoren damit man gegebenenfalls die Notbremse ziehen kann.
Bevor man also DSAs auf die komplette Seite ausrollt bietet es sich an zunächst einfache Modelle zu testen, u.a. durch Auto-Excklusions wenn z.B. der Inhalt der Seite „Produkt nicht lieferbar“ anzeigt.

Simple DSA Testing

Besonders spannend werden Dynamic Search Ads in Kombination mit Remarketing Lists for Search Ads (RLSA).
Wer DSA über die API startet/stoppt kann weitere Datenquellen nutzen.

Toller Tipp: durch eigene Crawls prüfen wie viele Anzeigen aktuell geschaltet werden und nur dann DSA ausspielen wenn sonst keine andere Anzeige geschaltet wird.

Alistair Dent: Adwords ohne Keywords

Florian

Die Nutzung der Adwords API war dann das Stichwort auf dem Alistair Dent mit vielen Tipps und Know How anknüpfte. Thema: Ad Customization, was aktuell tatsächlich sehr, sehr wenige Werbetreibende hinbekommen.
Via Ad Customization lassen sich alle Bestandteile einer Anzeige ändern: Text, Zahlen, Preis, Datum z.B. so: „20% Rabatt bis zum 20.03.“, „Nur noch X Artikel verfügbar“, „Pizza in 15 Minuten innerhalb Ortsteil / Radius“ etc.
Zum Auslösen der Änderung können verschiedenste Trigger verwendet werden:

  • Device
  • Zeit
  • Keyword
  • Ad Group
  • Campaign
  • Geo Location (Einfachster Trick dazu: Excel mit PLZ & Ort aus ganz Deutschland hochladen)

Fazit: DSAs insbesondere in Kombination mit der Adwords API und Adwords Script sind ein sehr mächtiges Werkzeug. Der Kreativität sind keine Grenzen gesetzt, gerade wenn es darum geht weitere Datenquellen wie Wetterdaten, Live-Fussballergebnisse, Logfiles, etc. zur Adschaltung mit heranzuziehen.

Stefan Fischerländer: Site Architecture und Search Engine Friendly Design (SEFD)

Johan

Takeaway: Den Nutzer auf die hilfreichste Seite führen. Nicht hilfreiche Seiten wegwerfen

  • Unnütze Seiten deindexieren (fast) leere Kategorien, Ergebnisse der internen Suche, paginierte Seiten, nicht mehr lieferbare Produkte, Seiten mit wenig Inhalt
  • Notiz: Vorschlag Canonical von Suchseiten auf Kategorieseiten klingt nach viel Aufwand für wenig Ertrag. Ich würde hier weiter pauschal auf noindex setzen. Es sei denn: Es gibt eine sehr(!) geile interne Suche.
  • Notiz: Stefans Vorschlag Vorschlag Noindex, Follow für paginierte Seiten ist eine von mehreren Varianten. Hätte man noch anreißen können
  • Was bei nicht mehr lieferbaren Produkten:
    • Kommt bald wieder: Produktseite behalten
    • Nachfolgeprodukt: 301-Weiterleitung. Notiz: Ich steh an der Stelle eher auf stehen lassen + prominente Links auf Nachfolger.
    • Saisonale Kategorien erreichbar lassen
  • Nur relevante Inhalte an Google zu liefern steigert die Relevanz und Ranking der gesamten Domain
  • Weitere Informationen/Ratgeber dürfen Nutzer nicht vom Kaufen abhalten. Eventuell Ratgeber, etc. auslagern

Fazit: Das Leben ist komplizierter als simple Hierarchien. Und schlechte Informationsarchitektur führt zu schlechter Usability

Justus

  • Erste Empfehlung für die interne Suche: Canonical von der internen Suche auf eine passende Produktseite mit der Begründung, dass auf die Suche zeigende Links sich auf die Kategorie auswirken.
    Justus: Aufwand vs. Ertrag? Nur relevant bei schnellen & guten Entwicklern
  • Paginierung: noindex, aber kein Wort zu rel prev/next? Gerade im Licht zum vorangegangenen Vortrag von Jens muss man aber eher fragen: Warum habe ich überhaupt Listen mit 50 Paginierungsseiten?
  • Bei abgelaufenenen Produkten: 301 auf neueres Produkt, dann aber bitte mit Hinweis an den Nutzer, dass er weitergeleitet wurde und warum
  • Man braucht auch einfach mal eine sinnvolle Landingpage, insbesondere bei großen Unternhemen gibt es aber keine, auch wenn das intuitiv selbstverständlich wäre. Beispiel: Opel Astra Diesel (480 Suchen / Monat in Deutschland), wo sich Opel selbst erst auf Platz 4 mit einer nutzlosen Pressemitteilung wiederfindet
  • Wilde These, bei der ich Stefan nicht zustimme: Produkttexte halten vom Kaufen ab – warum dann nicht den Text so lange testen bis er die CR erhöht?
  • Auch 2016 muss man offenbar immer noch erklären, dass Responsive Webdesign alternativlos ist.

Dela Quist: Marketing-Automatisierung macht den Traum von Multi-Channel Marketing-Programmen zur Realität! Und warum setzen so wenige Unternehmen den Traum um?

Johan

Takeaway: Marketing braucht ein nutzerzentriertes Reporting

  • Mobile ist nicht mehr schwer, sondern Pflicht. Erreichbarkeit/Nutzbarkeit auf jedem Gerät ist Grundvoraussetzung für Marketing
  • Omnichannel heißt einem Benutzer die gleiche Experience Online/Offline/auf verschiedenen Geräten zu geben. Dafür brauche ich zentrale Interaktionshistorie für jeden User
  • These: SEOs sind sehr gut darin sich für Erfolge anderer attribuieren zu lassen, da viele Brandingkontakte nicht messbar sind (Notiz: Bin mir sicher, dass es eigentlich auch in US Standard ist Brand-Search aus dem SEO-Erfolg herauszurechnen. ;))
  • Omnichannel: Zu verstehen, wieso Jemand auf die Seite kommt ist genauso wichtig, wie der Versuch den Warenkorbwert zu erhöhen
  • Mehr über Email-adressen als einzigartiges Identifikationsmermal denken, im Endeffekt ist es ein sehr gutes Mittel, um Nutzer über Geräte hinweg wiederzuerkennen und dann in ein eigenes System zu tracken
  • GAFAs battlen sich darum das erste Unternehmen mit 1Trillion Umsatz zu werden. Sie battlen sich um Werbungsbudgets, also den Umsatz anderer Firmen.
  • E-Mail ist immernoch Grundlage für jede Online-Interaktion. Ohne Mail keine Transaktion, keine Social Profile, Android / iOS, etc.
  • E-Mail hat auch einen positiven Effekt, selbst wenn die E-Mail nicht geöffnet wird.

Fazit: E-Mail nicht vergessen.

Florian

  • Erstaunlicherweise freut man sich in manchen Kanälen über 1-3% Conversion Rate. Im E-Mail Marketing ärgert man sich über weniger als 5% -> Grund genug sich viel mehr mit E-Mail zu beschäftigen
  • Auch keine oder wenige Openrates sind eine Aussage. Die Ursachen sind jedoch vielfältig
  • Vorausgesetzt das Subject der E-Mail ist gut dann korrelieren non-open-rates mit Direct Traffic -> bei jeder Kampagne also auch die anderen Traffickanäle im Auge behalten
  • Dela Quist ist der Meinung, dass E-Mail in Attributionsmodellen oftmals zu wenig vom Kuchen abbekommt -> zumindest sollte man das einmal kritisch diskutieren

The Direct Effect

John Müller: Der perfekte Relaunch

Johan

  • Mach Dir klar, welche Parameter der Seite sich ändern. Auch Veränderung von Inhalten sind Relaunches.
  • Mach Dir klar, welche Einflüsse die Änderungen dieser Parameter auf die Rankings haben können. Kurzfristig, Langfristig
  • HTTPS- oder Domain-Wechsel gibt relativ wenig Änderungen. Veränderungen an Design und Struktur sind anspruchsvoller.
  • Schritte:
    • Dokumentiere alle URLs (inkl. Ressourcen, Bilder, CSS)
    • Bei URL-Wechseln auch die Verlinkung/Linkziele/Linktexte
    • Recrawl: Achte darauf, dass genügend Ressourcen zur Verfügung stehen, wenn der Googlebot die neue Struktur verstehen möchte
    • Lastmod in Sitemaps anpassen
    • Versteckte Links anpassen (canonical, alt-mobile, amphtml, apps, hreflang, next/prev, sitemaps, robots.txt, js, css, requests aus js/css, bilder, videos)
    • Alle URLs weiterleiten! Mobil, Geotargeting oder bestimmte Seitenbereiche nicht vergessen. Auch Redirects für Googlebot Mobile testen.
  • Robots.txt nicht weiterleiten
  • Wenn Relaunch auf JS-basierte Frameworks, dann Testen! Testen! Testen!
  • Umstellung der URLs abhängig von Crawl-Frequenz. Einige URLs können also durchaus mehrere Monate brauchen
  • Tipp bei der Analyse: Wochentage beachten, Impressions analysieren, nicht Klicks. Für Top-URLs / Suchanfragen die Signale vergleichen
  • 301 steht für permanent Redirect. Redirects sollten mehrere Crawlingzyklen bestehen.
  • Wenn 301 keine Option ist. Dann könnte man Notfalls auch JavaScript Redirects machen. Nicht perfekt aber besser als nichts.
  • Frage bei Problemen: Gibt es eine technische oder algorithmische Ursache?

Fazit: Selbst für einen Relaunch-Veteran, der schon viele Relaunches miterlebt hat war Neues dabei. Die Weiterleitung der Robots.txt zum Beispiel, oder die Erinnerung an das Testen von Redirects mit unterschiedlichen User-Agents / Geo-Informationen, wenn vorher ein Geo- oder Mobile-Switch installiert war.

Justus

John lieferte gewohnt sympatisch zuerst einen Überblick über Relaunch-Bestpractises, um im Anschluss Fragen zu beantworten. Für mich schön es nochmal zu hören:

  • Kein Relaunch-Herumeiern oder langsames Umstellen in vielen kleinen Schritten: Wenn ihr viel geplant habt, dann stellt bitte alles auf einmal um
  • Google kommt mit JavaScript schwer zurecht. John sagt: gründlich testen. Justus sagt: Angular und Co haben auf SEO-relevanten Content-Sites nichts zu suchen. Sie sind super und extrem hilfreich für Entwickler & User, aber nur in Webapps, bei denen es nicht auf korrekte Indexierung ankommt

Danach das Frage-Antwort-Spiel:

  • Frage von Dominik Wojcik: Warum funktionieren meine Rich Snippets nach Relaunch (nur Code-Änderungen) nicht mehr?
    John: Entweder die einzelnen Seiten wurden neubewertet und die Rich Snippets wurden als nicht mehr passend erachtet, alternativ ist aber auch denkbar, dass geswitched wurde von unterstütztem Format (schema.org) auf eins, das noch nicht für Rich Snippets unterstützt wird, aber schon im Rich Snippet Tool erfolgreich getestet wird (JSON-LD)
  • Frage: Wie lange Redirects beibehalten?
    John: So lange wie möglich
  • Frage von Erik Kubitz: Ich habe 3.000 URLs, kann aber technikseitig nur 100 Weiterleitung einrichten
    John: Bau so viele wie du kannst und wenn wirklich wirklich sonst gar nichts geht, dann wenigstens JS Redirects
    Vorschlag von Dominik Wojcik: hreflang Tag (Sitemap) benutzen und x-default auf die neue URL Variante zeigen lassen. Nicht schön, funktioniert aber
    John: Sehr hackig, bitte nicht machen.
  • Frage: Seitenbereich wird abgeschaltet – soll ich einen 410 oder 404 nehmen?
    John: Macht für uns eigentlich keinen signifikanten Unterschied. Ne gute Fehlerseite für den Nutzer und einen normalen 404 ist genau so gut
  • Frage: HTTP/2?
    John: Verändert für SEOs eigentlich nicht wirklich viel. Er hat vor zwei Wochen im Team nochmal nachgefragt – der Googlebot müsste es irgendwann später 2016 supporten. Dann kann Google mehrere URLs auf einmal crawlen. Auch wenn es im Standard nicht verlangt wird, erwarten Browser in der Regel HTTPS für HTTP/2, das kann man natürlich schonmal vorbereiten.
  • Frage: Infinite Scrolling?
    John: noscript und normale Paginierung einbauen
  • Frage: Wird überlegt, die Search Console Daten für einen längeren Zeitraum zu behalten?
    John: Überlegt wird vieles. Lad dir die Daten aber erstmal lieber öfters herunter.
  • Frage: Wie schlimm sind Redirect-Ketten?
    John: Nicht soo schlimm, sollte aber unbedingt unter 5 bleiben, denn genau ab 5 wird diese Ziel-URL neu zum Crawling gescheduled und alles dauert unnötig länger

Ari Nahmani: Technische Probleme, die SEOs den Schlaf rauben

Johan

Takeaway: Index Bloat = Indexed Pages > (unique Produktseiten + unique Kategorieseiten + Staticseiten)

  • Schlankheitskuren für den Index. Crawl Budget verwalten. Die richtigen Inhalte erreichbar machen und priorisieren
  • Parameter schlank halten, schau Dir an, was das JavaScript macht. Insbesondere history.pushState() und Canonicals
  • Brombone oder prerender.io für JavaScript prerender.
  • Google Alerts für Dinge, die nicht auftauchen sollte (cid, jsp, etc)

Fazit: Wenig für mich zu holen. Aber schöne Erinnerung, dass 2016 immer wichtiger wird Google zu helfen und zu priorisieren. Interessant: JavaScript-Fokus. JavaScript ist immer ein SEO Workaround und meist ist es sinnvoller das Problem bei der Wurzel (JavaScript statt HTML) zu packen, anstatt Aufwand zu betreiben die Probleme zu bekämpfen.

Michael King: Technische Probleme, die SEOs den Schlaf rauben

Johan

Takeaway: Technik wird wichtiger, wenn alle auf tollen Content fokussieren und Technik gleichzeitig immer komplexer wird.

  • Developers using stuff they don’t need
  • View-Source is dead. Man muss sich HTML und DOM ansehen.
  • HTTP2 wird wichtig
  • Position 1 ist nicht Position 1 in Zeiten, in denen Position 1 below the fold stehen kann.
  • 304 korrekt verwenden. Achtung: Wenn Google gecrawlt hat und 304 bekommt, obwohl sich was geändert hat, hast Du ein Problem
  • Geolocation in Chrome-Dev-Tools testen
  • Noch Mal der Reminder, dass im Keller Logfiles rumliegen, die zu wenig analysiert werden
  • Javascript-Crawling, artoo.js mal ansehen.
  • Above the fold Content in 400ms sichtbar machen (critical rendering path)

Fazit: Technische Exzellenz ist wichtig und bleibt wichtig, je bunter Webseiten werden und je mehr SEOs sich auf Content konzentrieren. Und: Man kann Technik mit Leidenschaft präsentieren.

Justus

  • Chrome hat Geolocation Emulierung
  • Entity Extraction: AlchemyAPI
  • Critical Rendering Path Dokucmentation mal *wirklich* studieren

Trotz dieser übersichtlichen Liste an für mich neuen Takeaways war es ein sehr guter Vortrag über technisches SEO, sowohl inhaltlich als auch stilistisch.

Joost de Valk: Large Scale SEO – So bringen Sie Ordnung ins Chaos

Johan

Takeaway: Systeme bauen. Nicht Symptome doktorn

  • Welcher Content is most engaging?
  • Nice: Social-Daten (Was haben wir gepostet, was haben andere geschrieben) ins CMS zurückschreiben
  • Google Search Console sollte nicht die Stelle sein, die ein über Fehler auf der eigenen Seite informiert
  • Wenn man die Möglichkeit hat: konkrete URLs verlinken, sondern ID-Mappings, damit sich URLs überall automatisch ändern. Deeplinks, HREFLANG, Canonicals. Über interne API URL-Daten und Metadaten(indexierbarkeit, etc.) Johan: Aber: Cool URIs never change
  • Tests für SEO-Metriken in das Continuous-Integration-System
  • Modernes Webdesign sollte erst die Tests für ein Problem bauen und dann die Lösung.

Fazit: Technische Schwierigkeiten haben mich irgendwie abgehängt. Oder der Inhalt war etwas praxisfern für Kundenprojekte. An sich eigentlich tolle Ideen. Dann sehe ich, vor welchen Problemen unsere Kunden stehen.

Andreas Hörr: TV Tracking, so profitieren Sie von den TV-Ausgaben Ihrer Wettbewerber

Anbieter für TV Tracking

Justus

  • Wer schaltet TV-Ads und hat nur eine Desktop-Only-Seite?! Leider immer noch mehr als 10% aller Unternehmen. TV Traffic ist extrem Second-Screen-lastig und das ist ein bisschen Tablet und ansonsten sehr viel Smartphone
  • Es gibt ein großes Angebot an Anbietern für TV Tracking und man bekommt einen programmatischen Alert, wenn ein gemonitorter Spot läuft. Darauf kann dann das Tool der umsetzenden SEA-Agentur reagieren und – möglichst realtime, was nicht immer hinhaut – die Kampagne anschalten
  • Conversioneinfluss und damit CPO können sich auf Basis der Platzierung (Sender, Sendung, Sendezeit) dramatisch unterscheiden. Beispiel experteer: Faktor 30 (Daten finden mit „wywy experteer“)
  • Geplante Sendezeit und tatsächliche Sendezeit ändert sich durchaus ganz normal um ein paar Minuten, das macht das übereinanderlegen schwierig
    • TV Tracking Software erkennt anhand der Tonspur den aktuell laufenden Spot, um den User auf den exakten Spot zu attribuieren
  • Erschreckend: In DE matchen nur 25% der Unternehmen ihre Homepage auf das beworbene Produkt

Nur 25% der TV Spots haben das Produkt auf der Website

  • SEA schalten, wenn die Konkurrenz TV-Werbung macht und das generische Suchvolumen, das dabei entsteht, mitnehmen oder sogar auf die Konkurrenz-Brand buchen
  • Nutzer auch ins Retargeting stecken, denn ich weiß, dass er sich prinzipiell dafür interessiert und kann ihn auch nach X Wochen & Monaten noch als TV-Kontakt identifizieren

Marty Weintraub: Social? Psychographics? Data? SEO? PR? PPC? Was zur Hölle ist eigentlich Marketing heutzutage?

Johan

Takeaway: Man kann Traffic auch kaufen. Auch mit hoher Qualität. Kostet auch Geld und hat Downsides, aber geht

  • Linkkauf ist für Google okay, solange die Links nofollow sind.
  • Such Dir nicht die großen Magazine mit Native Advertising aus, sondern die Mittelgroßen (site:domain.com sponsored)
  • PPC lässt sich inzwischen sehr detailliert aussteuern (includes,excludes). Schließe Leute aus, die in „gratis, kostenlos“ sind. Sie werden nicht kaufen
  • Content-Targeting auf Zielgruppen. Fans von Postillion mit lustigen Überschriften, Fans von Cicero mit nachdenklichen
  • Target gezielt Journalisten mit passenden Interessen mit PPC
  • Wenn Du Leute für teure Keywords einkaufst, dann pack sie in einen Retargeting Bucket, um sie auch in der Search gezielt retargeten zu können

Marcus Tandler, Marcus Tober, Joost de Valk, Mike King, Rand Fishkin: Webmasters on the roof: RankBrain & Co – Let’s Talk

Johan

  • Rankbrain gewichtet bestehende Rankingfaktoren neu. Erstellt selbst (noch) keine neuen Faktoren.
  • User Intent wird wichtiger. Bing Ads in diesem Zusammenhang anschauen.
  • Links werden weiter gebraucht, aber immer weiter entwertet und die Kriterien für Linkaufbau härter.
  • Suchverhalten wird weiter wichtiger, ist aber nicht einfach zu gamen.

Fazit: Freie, interessante Unterhaltung, aber: wenig Fakten, wenig Notizen

Philipp Klöckner: Crawl Budget Best Practices: 10 Regeln für maximal effiziente Websites!

Johan

Takeaway: Index Diät machen

  • Crawling-Ressourcen sind ein knappes gut und müssen entsprechend bewirtschaftet werden
  • Google ist effizient, aber ca. 10 Mrd. Datacenter kosten, Crawling kostet daher Geld
  • Crawling Budget abhängig von: PR (vor allem), DC, Freshness, Nachfrage, PageSpeed
  • Crawl Budget ist nicht: Dokumente pro Host, sondern Rechenzeit pro Host
  • Daher geschenkte Ressourcen effizient nutzen und Google bei der Priorisierung helfen:
  • Beste Priorisierung: Ballast abwerfen (no results pages, thin pages, out of stock, DC, Seiten die der Googlebot selten crawlt)
  • Longtail bearbeitet man nicht mehr durch zusätzliche Seiten, sondern durch holistische Seiten
  • Umsatz pro internen Link als Ansatz für Optimierung der internen Verlinkung
  • Quick Wins:
    • Produktsortierung anpassen. Standardmäßig nach Popularität. Seitenstrang für neue Produkte
    • Pagination: Mehr Produkte pro Seite, weniger Links
    • Links auf Social oder Internationale Varianten entfernen
    • Amazon als Googlebot nutzen, URL-Strukturen ansehen

Fazit: Wie gewohnt viel Inspiration in Nebensätzen von Pip. Schöner strukturierter Vortrag.

Bastian Grimm: Crawl Budget Best Practices: 10 Regeln für maximal effiziente Websites!

Johan

Takeaway: Basics richtig machen

  • Ladezeiten für Google monitoren
  • Keine Zeit mit nicht relevanten URLs verschwenden (noindex, 3XX, 4XX, Canonical, etc.)
  • Steuere den Crawler, aber lass ihn frei (robots.txt auf Minimum). Aber priorisiere ihn anderweitig und sei eindeutig mit eindeutigen Ergebnissen
  • Seiten ohne organic Traffic raus
  • Interne Verlinkung auf 404er, 301er abstellen
  • 301er Ketten und Loops
  • Canonicals reduzieren
  • Sitemaps: Wenn, dann alle indexierbaren(!) URLs
  • Irrelevante Filter-Links mit PRG-Pattern reduzieren
  • Paginierungen: prev/next + noindex
  • Get-Parameter Reihenfolgen normalisieren, damit nicht so viele URLs entstehen. Parameterreihenfolge sollte identisch sein
  • Post-Formulare statt Get-Formulare
  • Verlinkungen aus CSS und JS nicht vergessen

Fazit: Schöne Zusammenstellung, aber bis auf den Punkt Post- statt Get-Formulare für mich kein News-Wert

Andor Palau: Majestic API – Case Studies für ein effizientes Arbeiten in der Praxis

Florian

Obgleich wir bei Wingmen aktiv keinen Linkaufbau betreiben, unterstützen oder planen ist es doch notwendig sich mit aktuellen Taktiken und Tools zu beschäftigen, um negative Links schnell von guten Links zu separieren wenn es darum geht einen Kunden z.B. aus einer manuellen Abstrafung durch helfen.

Andor begann seine Einführung in das Thema mit dem Fakt, dass Links natürlich immer noch ein Rankingfaktor sind. Beweise sieht er allein schon in der Google Search Console, die neben dem Bericht zu manuellen Maßnahmen noch immer Quellen eingehender Links anzeigt und natürlich in der Existenz des Disavow Tools.

Im Vortrag finden sich viele hilfreiche Plugins und Tools, die sich via Majestic API ansprechen lassen. Hier kann also jeder selbst einmal testen oder sich gleich wie auch Andor und Kollegen ein eigenes Tool daraus bauen.

Der Majestic Tropical Trust Flow bietet die Möglichkeit einzelne URLs auf Basis eingehender Links in passende Themenkategorien einzuordnen. Linkquelle und Linkziel können so auf Relevanz abgeglichen werden.

Emily Grossman: How Apple’s Changing Up Search: From Siri to Safari To Spotlight

Florian

Einer der besten Vorträge zum Nachdenken kam von der großartigen Emily Grossmann. Da Apple User offensichtlich immer mehr werden und zudem ab der ersten Nutzung meist sehr loyal zur Marke stehen wird es Zeit sich einmal mit den Default-Einstellungen dieser Nutzer betraut zu machen. Konkret ging es um Siri, Safari und Apple’s Spotlight Search.

Apple's Suchmaschine

Bei der Suche in Safari wird die eingestellte Default-Suche oft unterhalb des Apple eigenen Index angezeigt wie die Suche auf meinem Macbook nach „Online Marketing“ zeigt:

Bildschirmfoto 2016-03-20 um 10.55.38

Bevorzugt angezeigt werden Kontakte, Apps, Apple Maps (wer lokale Geschäfte betreibt sollte sich hier also unbedingt auch anmelden). Besonders interessant: Auch die Notizen in den vCards der Kontakte werden mit indexiert.
Tracking ist leider ein Problem, da Traffic aus Apple Maps z.B. als Direct Traffic ankommt.

Tom Anthony: A Post-Pagerank World – The rise of personal assistant apps

Florian

Tom begann seinen Vortrag mit einer Vorhersage: Zur SMX 2019 werden mehr Vorträge über Non-Web SEO sprechen als über Web SEO.

Grund dafür sieht er in den verschiedenen Spracherkennungs-Devices wie Amazon’s Echo, Siri, Cortana, etc.

Voice Searches

Auch hier kommt Machine Learning zum Einsatz, um den Nutzer-Intent zu verstehen.
Ein Nutzer, der mehrere aufeinanderfolgenden Queries wie diese absetzt:

  • top hotels paris
  • top ausflugsziele paris
  • bestes restaurant paris

Wird voraussichtlich eine Reise nach Paris planen. Konkreter wird dies von Query zu Query.

Smartphones sind dabei der Schlüssel, da sie immer dabei sind und alle benötigte Technik bereits installiert haben: Spracheingabe, Foto, Internetverbindung, GEO-Location, Neigungswinkel, Kontakte und Vorlieben. Zudem haben Sie einen entscheidenden Vorteil: durch summen, klingeln oder vibrieren können sie jederzeit Notifications abgeben. Ziel ist dabei immer: die eine Antwort und eben keine Suchergebnisliste nach den Intentionen „user wants to do“, „user wants to know“, „user wants to go“.
Um das zu erreichen braucht es viele Daten. Neben eigenen Daten müssen dazu aktuell – zum Leidwesen der Anbieter – noch Datenpartner genutzt werden z.B. für Sportergebnisse.

Tracking von Ergebnissen der Spracheingabe? Bisher absolute Fehlanzeige und Ratlosigkeit. Hilfreich dazu folgende Präsentationen von MOZ: „SEO Answers for Ranking #0“ und Jono Alderson „Searching Higher Up The Funnel“:

John Müller: Technical Onpage & Onsite Clinic

Johan

ortovox.com:

  • HREFLANG fast gut (x-default fehlt), aber auf Produkten auch
  • CSS/JS nicht sperren (robots.txt). Wenn CSS oder JS nicht crawlbar kann Responsive nicht erkannt werden. Negativer Einfluss auf Mobile Ranking
  • komische RSS-Feeds mit anderen URLs und Crawlbudget-Verschwendung
  • Crawlingfehler durch fehlende Weiterleitung nach Redesign

dynatrace.com:

  • Was bietet dynatrace an? Was ist gemeint?
  • Startseite wenig relevant. Einstiege häufig direkt in die Tiefe
  • HREFLANG-Probleme: Canonical widerspricht HREFLANG
  • info-Parameter in Google Suche: info:url –> Welche URL ist indexiert

tuv.com:

  • „Interstitial fand ich schon ein bisschen störend…“, insbesondere lange Umfrage ist ungeschickt für die User-Signale
  • HREFLANG: EINE URL für VERSCHIEDENE Sprachen, fehlendes X-Default
  • Seminare (Produktseiten) Canonical auf Seminarliste. Daher nicht indexiert. Kerninhalte aus dem Index gekegelt. Seminare sind nur kurz Online. Übergreifende Landingpages für ähnliche Seminare schaffen und Canonical dahin.
  • Robots.txt Überkomplex. Außerdem Reminder: Bei Disallow Verzeichnisse mit „/“ abschließen, damit nicht URLs mit ähnlichem Pfad gesperrt werden
  • AMP für Nachrichten

vrbo.com:

  • Mag John nicht: Rich-Snippet-Spam, automatische Übersetzungen für Beschreibungen
  • Meta-Fragment, wenn es nicht notwendig ist, dann raus, da mehr URLs und doppeltes Rendering. –> Crawling-Budget
  • DC auf eigener Domain und auf Fremddomains

myplace.de:

  • Linkprobleme brauchen Zeit, auch wenn behoben. Beschleuniger: Branding
  • Review Rich-Snippets für eigene Firma auf allen Seiten nicht ok.
  • z.T. Doppelte Ads zu einem Key mit .at und .de-Domain
  • Crawler verliert sich, aber relativ egal.
  • HREFLANG Sprachversionen teilweise im Widerspruch zum Canonical

Allgemeine Hinweise

  • HREFLANG-Probleme: Keine Canonicals, HREFLANG zu weit unten oder im Body, Rückbestätigung fehlt
  • Canonicalization: Redirects, Canonical, interne / externe Links, Sitemaps, HREFLANG. Daraus wird das Canonical generiert (in der Reihenfolge, wobei Summe unterer Teile, darüberliegende überschreiben kann, im Zweifel gewinnt die kürzeste URL)
  • Bei Homepage, insbesondere bei Weiterleitung: X-Default + 302
  • Priorisierung der Canonicals
  • Wenn alle Resultate eines Queries Rich Snippets haben, könnten Algos die Anzahl der Einblendungen reduzieren.
  • Unvollständige Sitemap ist besser als keine
  • Schlechte Alternative Description-Auswahl an John via G+ schicken. (Achtung: Wirklich schlechte, nicht nur welche, die Dir nicht gefallen.)
  • John Müller nutzt Bing zur zusätzlichen Kontrolle

Weitere Recaps


Verlinkt von

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.