Recap der 8. SEO Campixx 2016 in Berlin

SEO Campixx 2016 recap

Bereits zum 8. Mal fand an diesem Wochenende am schönen Müggelsee in Berlin die SEO Campixx statt. Was einmal als reine SEO Veranstaltung in kleinem Kreis begann ist heute der Gipfel des hotelfüllenden Campixx Week Formats in dem eine Woche lang sämtliche Marketingdisziplinen beleuchtet werden.

Als Sponsor des SEO Parts der Campixx Week reisten wir Wingmen in diesem Jahr mit ganzen 7 Leuten an, um möglichst viele Insights der 12 parallel laufenden Tracks aufzusaugen. Als echter Szene-Treff ist die SEO Campixx allerdings noch viel mehr als „Nur Vorträge“ sondern vor allem Diskussionsfläche auf Augenhöhe. Die spannendsten Notizen des Wochenendes haben die Wingmen hier für Euch zusammengefasst:

Shortcuts

Campixx 2016-Recaps von: Johan, Florian, Stefan, Justus, Michael, Matthias und natürlich Wingwoman Anita.

Campixx Recaps von Johan

Jan Modlich (otto.de): „Toolgestützte Steuerung von Keyword-Vergabe, redirects, Duplikate“

Takeaway: Auch (sehr) komplexe Workarounds können sich lohnen

Tolle Einblicke in Workarounds, die SEOs in großen Firmen bauen, wenn die Technik länger braucht das grundsätzliche Problem abzustellen

  • Jan stellt die Systematik eines Otto-eigenen Crawlers vor, der Duplikate bei Kategorieseiten erkennt und Vorschläge zum Umgang damit macht.
  • Die Otto-Kategorien ändern sich wöchentlich. Es fallen welche weg, neue kommen hinzu, andere ändern Ort oder Eigenschaft. Insgesamt werden ca. 210.000 Kategorien (70.000 unique) verwaltet.
  • Fragen, die das Tool (halb-)automatisch beantwortet:
    • Welche Kategorien wurden entfern und sollten einen Redirect bekommen (inklusive themenrelevantem Zielvorschlag)
    • Welche URLs sollten ein Canonical bekommen, wohin?
    • Welches URL-Duplikat wird das Hauptdokument? Welche Kriterien möchte ich anlegen

Fazit: Immer wieder spannend, wie schwer es ist ein automatisches System zu steuern. Und: Spannend zu sehen, welche unterschiedlichen und kreativen Ansätze dazu genutzt werden.

Henning Rosenhagen (construktiv.de): „Automatisierung für Jedermann“

Takeaway: Vergiss die kleinen Automatisierungspotenziale nicht

Henning stellte ein paar unterschiedliche Ansätze zur Automatisierung vor. Nichts neues für mich.

  • Kleine Zeitfresser multiplizieren sich
  • Henning hatte einen kleinen CSV-Importer für Excel als Beispiel genannt. Der spart zwar immer nur ein paar Sekunden gegenüber dem manuellen Import. Diese aber mehrfach täglich für alle Mitarbeiter

Fazit: Keine konkreten neuen Inspirationen, aber noch mal neu den Finger in die Wunde gelegt: Menschen sollten Menschensachen machen, Maschinen sollten Maschinensachen machen. Hilf den Kollegen das zu erreichen (und selbst zu erkennen).

Karl Kowald (Ipsum GmbH): Prozessabläufe, Problemfelder und Lösungswege für Unternehmen um die 10 Mitarbeiter

Takeaway: 20 Unternehmer. Keiner tickt wie der Andere. Viele Ansätze für Problemlösung

Karl hatte zu einer offenen Diskussion geladen.

  • Offener Austausch mit Konkurrenten klappt in der Branche
  • Probleme sind vielfältig, aber es gibt Gemeinsamkeiten. Häufig genannt:
    • Zeiterfassung (Genauigkeit, Validität, Abgleich mit Schätzung)
    • Billing (Vor- und Nachteile von Stunden-, Tages-, Pauschalabrechnungen für Dienstleister und Kunden)
    • Schwierigkeit laufendes und Projektgeschäft in einer Firma unter den Hut zu bekommen
    • Know How im Unternehmen verfügbar machen und verbreitern

Fazit: Keine konkreten Lösungen, aber viel offener Austausch.Gefühlt sind wir Wingmen auf einem guten Weg. Unser Overhead hält sich in Grenzen und unsere Probleme sind nicht größer als die anderer. Spannend, dass es jedes Mal für Aufsehen sorgt, wenn wir unsere „No-Internal-Mail-Policy“ erwähnen.

Maximilian Bloch (Contentmanufaktur): „Von A wie Afar bis Z wie Zulu“

Takeaway: HREFLANG ist wichtig und spannend, aber keiner kriegt es richtig hin

Zum ersten Mal Maximilian gehört. Sollte ich öfter machen.

  • HREFLANG ist wichtig und spannend. Der Weg zur Implementierung aber gepflastert mit Stolpersteinen
  • Wie immer zu HREFLANG viel Diskussionsbedarf zu X-Default. Maximilian empfiehlt entweder: Seitenindividuelle Sprachauswahlseite (also für jeden Inhalt eine eigene) oder eine Sprache als X-Default setzen (und diese dann nicht mehr im HREFLANG-Block aufführen). Ich sehe das anders. Man kann/sollte zur Klarheit bei Variante zwei auch die Sprache der X-Default-URL aufschreiben
  • Keiner im Raum kannte eine Domain (die er nennen wollte), die das HREFLANG korrekt implementiert hat

Fazit: Viel zu wenig Leute in der Session, wenn Maximilian das nächste Mal redet, dann geht hin. Hreflang ist komplex. So komplex, dass Diskussion darüber sehr schwierig wird, weil es schwer ist die komplexen Sachverhalte korrekt zu verbalisieren.
Link zum Foliendownload HREFLANG von Maximilian Bloch

Danny Behne, Marcus Krautkrämer (mediaworx berlin AG): „Fuck off Suchvolumen und KEI – Next Level Contentpriorisierung“

Takeaway: Kleines SEO-Tools for Excel-Plugin als Helfer bei der Priorisierung von Text-Aufträgen

Campixx wie sie sein sollte. Problem benannt, Helfer für zu hause vorgestellt. Auch wenn der noch nicht ausgereift ist.

  • Content wird häufig nur nach Suchvolumen eines Keywords priorisiert. Das macht zwar das Trafficpotenzial eines Rankings deutlich, aber nicht die Schwierigkeit des Rankings
  • Manche rechnen mit dem Keyword Efficiency Index (KEI). Der stellt Suchvolumen und Anzahl der Dokumente im Index in ein Verhältnis, um die Schwierigkeit eines Rankings ins Verhältnis zum Suchvolumen zu setzen
  • Was fehlt ist das SERP-Layout. Gibt es viel Werbung? News- oder Bilder-Boxen oder andere Universal Search Integrationen? Gibt es Wettbewerber in Top-Positionen, gegen die meine Domain keine Chance hat?
  • Das ganze mit SEO-Tools for Excel erheben, in Formeln gießen und dann weiß ich, in welcher Reihenfolge ich die Themen angehen sollte

Fazit: Kleiner, limitierter Helfer mit einem noch ausbaubaren Ansatz. Aber: Gut daran erinnert, dass SERP nicht gleich SERP ist und Keywords mit viel Werbung oder Vertical-Integrationen/Boxen eine andere Strategie brauchen als 10-Blue-Links.

serprio auf seocouch.de

siehe Auch: Session-Recap von Anita

David Radicke (radicke.com): Geschlossene News-Publisher & Friends Runde

Eine Vorstellungsrunde: Wer macht eigentlich was für welchen Verlag und mit welchen aktuellen Schwerpunkten. Auch hier funktioniert der Campixx-Spirit.

Wichtigste Schwerpunkte für News-Publisher 2016:

  • Relaunch (wie jedes Jahr)
  • AMP und Auswirkungen. Vor allem: Wie kriege ich Trafficsteigerung und Vermarktungsschwierigkeiten unter einen Hut. Wo liegt das Optimum?
  • Alte Seiten löschen, Crawlbudget optimieren, Prioritäten für Google setzen

Fazit: News bleibt spannend. AMP ist die Neuerung 2016. Aber die Geschwindigkeit für Nutzer, die nicht über Google kommen darf nicht vernachlässigt werden.

Sonja Kraus (e-fee.de): Dos und Don’ts im Umgang mit Keywords aus Sicht von Linguisten, Textern und Algorithmen

Takeaway: Schreibe für den Nutzer, nicht für eine Maschine

Keine News für mich. Aber: Schöne Diskussionen zu Stopwords und WDF*p*IDF/tf*idf.

  • Googles Sprachintelligenz steigt.
  • Keine Angst vor Stopwords. Hinter Googles Sprachanaylse steht Statistik. Aber: Keywordbestandteil 1 im ersten und Teil 2 im letzten Absatz zu nennen wird doch nicht funktionieren. Googles Maschine braucht Unterstützung.
  • Reminder: Wortschatz Uni Leipzig kann Inspirationsquelle sein, wenn auch nur kleiner Corpus als Grundlage.
  • WDF*p*IDF-Tool kann spannend sein, aber schau Dir die Funktionsweise an. Wertet das Tool die komplette Seite, oder nur den Hauptcontent aus? Wird vom Toolbetreiber noch eine Stopwordliste drübergelegt? Wie groß ist der Corpus, den das Tool heranzieht. Tipp: Bei WDF*p*IDF zusätzlich auf SERPs achten. Gibt es gerade QDF, also viele Ergebnisse mit aktuellem Bezug? Das verfälscht Deine Auswertung. Halte Dich nicht an die Kurve, sondern nutze das Tool als Inspiration.

Fazit: Im Bereich Content- und Keywords tut sich bei Google eine Menge. Zumindest Grundlagen zu WDF*IDF, LSA, LSI, Word2Vec und ähnlichen Algorithmen sollte man als SEO kennen. Auch nicht schädlich: Stemming, Lemmating, Kompositazerlegung

Valentin Pletzer (chip.de): „Googlebot Analyse mit Elasticsearch“

Takeaway: Elastic + Logfiles gehen toll Hand in Hand.

Tolle Session. Basics in Folien, dann Hands-On mit Elastic, Logstash und Kibana.

  • Die nächste Logfile-Analyse wird im ELK-Stack gemacht
  • Beim Apache zusätzlich loggen lassen (für einfacherere oder bessere spätere Analysen):
    • Mime-Type
    • Verarbeitungszeit
    • Protokoll (http vs. https)
  • Fragestellungen bei Logfile-Analyse:
    • Welche Fehler bekommt Google, bei welchen URLs
    • Wo verläuft sich der Bot?
    • Was wird wie oft gecrawlt?
    • Vertraut der Bot meinen 301ern/404ern?
    • Und vieles mehr…

Fazit: Sieht so aus, als würde Logfileanalyse mit Kibana/Elastic inzwischen Spaß machen. Toller Input in der Session. Und: Mal wieder gibt es immer viele Wege zum Ziel.

Slides:

S. Bendig, A. Probst, J. Fauldrath, P. Pietruck: SEO-Zertifikate: Panel Diskussion

Takeaway: Die Branche muss sich gegen schwarze Schafe wehren

Eigentlich wollte ich die Session vermeiden, um die elendige Zertifikate-Diskussion nicht schon wieder zu führen. Die Crawling-Session fiel aber aus, also bin ich einen Raum weitergegangen. Hat sich gelohnt.

  • Es gibt schwarze Schafe in der SEO-Branche
  • Die weißen müssen etwas dafür tun, dass sich das Bild von SEO in der Öffentlichkeit bessert. Davon profitiert die gesamte Branche
  • Einen eigenen SEO-Verband zu gründen macht keinen Sinn. Im Boot mit dem BVDW zu sein hat Vor- und Nachteile. Hauptvorteil: Organisationsrahmen und Support, wenn es rechtliche Auseinandersetzungen rund um Zertifikate und Code of Conduct gibt.
  • Siegel können Teil einer gemeinsamen Strategie sein, die es Branchenfremden leichter macht schlechte Dienstleister zu filtern. Aber: Ich halte weiterhin noch nicht viel von einer Siegelstrategie.
  • Viel interessanter: Selbstverpflichtung und Hilfestellung des Verbands mit Kriterien zur Unterscheidung von gut und böse

Fazit: Es gibt immernoch eine Menge schwarze Schafe. Die gute Seite der Macht scheut es aber sich mit ihnen anzulegen. Ein Verband kann da helfen die schwarzen zu isolieren und Kunden Hilfestellung bei der Dienstleisterauswahl zu geben. Auch wenn ich den Beteiligten glaube, dass sie in der Siegelauswahl die Kriterien anziehen. Der Prozess ist mir weiterhin nicht transparent genug und es gibt immernoch Siegelinhaber, die aus meiner Sicht kein Siegel verdienen. Deswegen: Kein Siegel für Wingmen, aber: Mehr Offenheit und Dialogbereitschaft gegenüber dem BVDW als früher.

Campixx Recaps von Florian

Florian Stelzner, Niels Dahnke, Björn Tantau, Gero Wenderholm und Florian Elbers: SEO EXPERT PANEL Leute, wir müssen reden

Florians Vormittag am Samstag der SEO Campixx 2016 war ein Mix aus guten Gesprächen mit alten Bekannten und dem Besuch mehrerer Sessions, um ein Gefühl dafür zu bekommen was in diesem Jahr besonders häufig diskutiert wird. Gefühlt war in diesem Jahr die Anzahl der Neueinsteiger besonders hoch so wurde neugierig beobachtet bei welchen Tipps so mitgeschrieben wurde. Buzz-Word schlechthin: AMP – Accalerated Mobile Pages.

Ein sehr zweischneidiges Schwert, das aktuell – wenn überhaupt – für große News-Publisher ein Thema ist und auf gar keinen Fall für den „Hobby-SEO-Blogger” als Plugin für sein WordPress System. Diese und weitere Warnungen und Tipps für die Implementierung von SEO im Alltagsgeschäft wurden dann um im Experten Panel ausführlich diskutiert. Es ist leider immer wieder erstaunlich wie schnell sich Leute vom „Schnell und Hektisch reich werden”-Virus infizieren lassen und dann den einen Schalter, den einen Trick, den heiligen Gral des SEO suchen mit dem dann instant die Millionen sprudeln. SEO durch handauflegen funktioniert aber nicht. SEO ist Handwerk, Know-How über den eigenen Tellerrand und vor allem gute Inhalte auf technisch sauberst erstellten Seiten.

siehe auch: Session Recap von Matze

Marcus Tandler, Danny Linden: Hands on Workshop

Nach dem Expert Panel folgte direkt im Anschluss eine SEO Siteclinic mit Danny „HTTPs Fanboy ” Linden und dem Mann, der es immer wieder schafft Öl ins bereits lodernde SEO-Herzblut Feuer zu kippen – Marcus Tandler. Insbesondere im zweiten Teil der Session wurde ein Thema angesprochen welches im Laufe der weiteren Veranstaltung noch an vielen anderen Stellen zu hören war:

Der langsame SEO Tod von Websites

Symptome: Etwa bis zum ersten Panda-Update steigt die Sichtbarkeit in Korrelation zu immer mehr indexierten Seiten stetig an bis dann der Punkt erreicht ist wo (Near) Duplicates, Spam und sonstige irrelevante Seiten die Oberhand gewinnen. Ab diesem Punkt geht es dann Bergab. Langsam Bergab. Manchmal sogar schleppend langsam.

Ursache: Nutzer wollen Qualität statt Quantität. Google hilft mit dem Panda Update.

Behandlung: Ausmisten mit dem Stahlbesen, d.h. Seiten drastisch reduzieren auf die wirklich relevanten Seiten.

  • Step 1: Interne Links auf Altlasten entfernen bzw. auf relevante Seiten umbiegen
  • Step 2: Löschen der Seiten (Status 404 oder 410) – interne Weiterleitungen sind nicht nur faul und verboten sondern lassen Baby-Kätzchen sterben. Lasst das!

siehe auch: Session-Recap von Michael

Florian Stelzner, Johan von Hülsen: Themen- und Keywordrecherchen mit urfado.com

Auf vielfachen Wunsch wurde spontan das neue urfado-Frontend vorgestellt mit dem sich Themen- und Keywordrecherchen sehr einfach und effizient auch bei großen und sehr großen Datenmengen sinnvoll finden lassen.

Der Clou: urfado bietet explizit kein Tool an sondern eine Dienstleistung. Nach einem detaillierten Briefing erhält man eine umfassende Analyse, die manuell bereinigt und in sinnvolle Cluster und Kategorien eingeteilt werden.

Bernard Zitzer: User Happiness – der entscheidende Faktor in den Top-10-Positionen

In dieser Session ging es um die Beeinflussung von Nutzersignalen auf das Ranking. Dieses Foto fasst ziemlich gut zusammen was besprochen wurde:

These: Bis zur ersten Ergebnisseite bei Google geht Bernard vom algorithmischen Bereich aus. Um zu Entscheiden welche Seite würdig für die erste Seite ist testet Google in regelmässigen Abständen URLs von hintereren Ergebnisseiten auch mal in den vordereren Rängen aus, um zu testen, ob diese bessere Nutzersignale erhalten.

Wie macht man also den Nutzer glücklich ist die Frage. Fängt an beim Erwartungsmanagement und der häufig unterschätzten SEO Snippet Optimierung und geht auf der Website weiter mit hilfreichen Inhalten vs. Dingen, die offensichtlich nur für die Suchmaschine implementiert wurden. Als Beispiel wurde der „AGB-Text” in der linken Zalando-Spalte genannt.

Thomas „Amazon SEO ;-)” Mindnich: SEO(s) vor dem Abgrund!

Mit einem Hauch von Sarkasmus, aber viel Know-How über die technische Funktionsweise von Suchmaschinen wurde neben vielen anderen hilfreichen Denkanstössen u.a. mit Google Patenten, algorithmischen Modellen und Konzepterläuterungen eine sehr unterhaltsame Session für SEO-Urgesteine eingeläutet. Einer der wichtigsten Fakten: Um die Funktionstüchtigkeit von Algorithmen zu prüfen braucht es immer einen Rückkanal an Nutzer-Daten zur Maschine. Leider sind die Möglichkeiten auch bei Google in 2016 noch nicht 100%ig ausgereift. So hat Google zum Beispiel erst vor kurzem – peinlicher Weise – zugeben müssen, dass es Schwierigkeiten beim erkennen von implizierenden bzw. Explizierenden Queries hat. Wie zum Beispiel: „Handy ohne Vertrag” vs. „Handy mit Vertrag”. Oft sind die Ergebnisse in der Suche nahezu identisch obwohl ja eindeutig unterschiedliche Dinge gesucht wurden. Google ist da aber nicht allein sondern jede Site, die einen Suchschlitz anbietet. Etwa ein Onlineshop. Wenn man in einschlägigen Möbel-Shops zum Beispiel mal nach „kleiner Schrank” sucht sind die Ergebnisse oft erbärmlich schlecht. Von der Wandfront „Eiche rustikal” bis zum Spiegelkabinett „Versailles” wird alles gezeigt, aber eben nicht das gesuchte Schränkchen. Tipp an alle Shopbetreiber: Interne Suche monitoren und stetig verbessern – hier wird Geld verbrannt!

Sebastian Erlhofer: „Von der Graphentheorie zur internen Verlinkungsoptimierung”

In dieser Session wurde mal wieder das Tool Gephi in Erinnerung gerufen mit dem einige Wingmen in der Vergangenheit schon eine Menge herumexperimentiert haben. Die neue Version von dem Tool bietet im Datenlabor eine Menge nützliche neue Funktionen und vereinfacht den Daten-Import. Wo man früher noch zwei Dateien für Kanten und Knoten brauchte reicht heute schon eine gecrawlte Liste der internen Verlinkung. Ein Kernproblem wurde auch bei Sebastian sehr deutlich. Je mehr Daten, desto unleserlicher wird der Graph. Wichtigstes Todo vor der Nutzung von Gephi: genau überlegen was man genau testen möchte und wirklich nur diese Daten analysieren bzw. Dieses Sample gegen den Gesamtkorpus vergleichen.

Großartige Idee von Sebastian: Was wenn man mal einen wichtigen Knoten aus dem Konstrukt entfernt? Wie verändert sich dann die PageRank Berechnung?

Sein Testprojekt zur Untermauerung dieser Idee werden wir in jedem Fall in den nächsten Wochen beobachten. Links zum Projekt sind verboten, daher googelt einfach selbst nach „Brusemuckel”.

siehe auch: Session Recap von Anita

Download (PDF, 4.98MB)

Tobias Schwarz: Ich habe viel gesehen und so optimiert man seine Seitenstruktur richtig

Auf Basis von Crawldaten aus seinem Tool Audisto wurde dann vorberechnet wie sich das „ausdünnen” von Seiten, die dem Phänomen „langsam sterbende SEO Seiten durch Panda” unterliegen, auf die PageRank Verteilung auswirkt. Long story short auch hier: Qualität statt Quantität und irrelevante Dinge sauber entsorgen, d.h. wirklich löschen und die internen Links korrigieren/ebenfalls löschen.

Ein Noindex reicht definitiv nicht aus! Es gilt daher bei der Optimierung der Seitenstruktur darauf zu achten, dass noindex wenn möglich gar nicht gebraucht wird. Etwa durch Vermeidung von endloser Paginierung, mehr angezeigte Ergebnisse pro Seite, Fokussierung auf wesentliche Inhalte, saubere interne Verlinkung.

Campixx Recaps von Stefan

Johannes Giesche (TrustAgents GmbH): „Crawling, Indexierung und interne Verlinkung von großen Webseiten“

Takeaway: Arbeitet bei der Optimierung von großen Websites (<10.000 indexierte URLs) auch mit großen „Optimierungshebeln“. D.h. man stürzt sich nicht auf Details, sondern versucht durch das Finden von Fehlern in Eurem Crawlermangement, der Indexierungssteuerung und der internen Verlinkung große systematische Fehler aufzudecken. Diesen wird dann entsprechend begegnet:

  • Mit der Logfileanalyse nach Parameteraufrufen suchen, Häufigkeit der Crawls einer URL erheben oder untersuchen ob sich der Crawler selber URLs zusammen setzt
    • Dann Crawlermanagement durch die gezielte Steuerung von Crawlerressourcen via robots.txt
  • Um den Ist-Stand des Indexierungsstatus zu erheben zieht man sich alle Daten aus Google Analytics, der Google Search Console (Tipp: Meldet dort auch Subdomains und Unterordner an) und verwendet immer detaillierter werdende Google Siteabfragen
    • Anhand verschiedener Faktoren wie „vorhandener unique Content“, „SEO-Einstiege über die URL“ erstellt man sich eine Bewertungsmatrix und entscheidet dann ob die URL indexierungswürdig ist
    • Ausbaustufe: Google Core Reporting API nutzen um die Indexierungskontrolle zu automatisieren
    • Gerne auch <lastmod> aktiv pflegen, um URLs schneller indexieren zu lassen bzw. Aktualisierungen schneller in den Index zu bekommen

Fazit: Super Session in meinen Augen, denn im Grunde ist die Methodik für jeden nachvollziehbar und anwendbar. Darüber hinaus setzt das Vorgehen an einem anderen Punkt an, als wir es bisher machen. Ich hätte mir nur noch gewünscht, dass Johannes ein paar Worte darüber verliert, ob sie tatsächlich nur Symptome behandeln oder auch an den Ursachen ansetzen, also z.B. ungewünschte URLs (parametrisierte) einfach nicht entstehen lassen.

Stefan Fischerländer (Gipfelstolz GmbH): „SEO 2016“

Takeaway: Wenn im Online Marketing / SEO etwas King ist, dann das Produkt selber. Für uns SEOs heißt das aber auch, wir müssen zum Produktmanager werden. Unmittelbar zahlen geeignete Informationsarchitektur, Technik, Ladezeiten, exzellente Inhalte und die Erfüllung der Nutzerintension auf die Qualität Eures Produkts.

  • Testcase zur Ermittlung der Top 100 auf iPhone, iPad und Desktop zeigte große Übereinstimmung zwischen iPhone und Desktop. Nur die iPad Ergebnisse unterschieden sich jeweils sehr stark von den anderen beiden Medien

Fazit: Egal ob als Beispiel auf der Opel Website keine „Opel Astra Diesel“ (Suchphrase) URL zu finden ist oder bei der Suchphrase „Windows 10 kaufen“ Conrad die Conversionelemente zum Kauf unter einem riesen Ratgebertext versteckt, alles zahlt auf die Qualität Eures Produkts ein (oder eben nicht). Auf der anderen Seite muss man aber auch so ehrlich sein und sagen: Das sind Basics und hat meiner Meinung nach weniger etwas mit aktuellen Veränderungen zu tun, als viel mehr mit der nicht konsequent durchgeführten Umsetzung von Basics.

Theresa Futh (Bild.de): „Die ominöse KPI Kristallkugel im SEO“

Takeaway: „Was bringt uns die Umsetzung denn?“, „Wie schnell ranken wir nach der Umsetzung für XYZ?“ – Diesen Fragen mussten wir uns alle schon einmal stellen. Theresa zeigte dabei, wie man sich dem Ganzen methodisch nähern kann. Um SEO-Umsetzungen in einem Unternehmen (z.B. neue Sitemap) durchbringen zu können, muss man eben auch manchmal mit Kostenersparnis argumentieren (Server fiel durch Sitemap-Optimierung weg).

Diese Methoden wurden vorgestellt:

  • Umschiffungsmethode: Das genannte Sitemap-Beispiel. Nicht mit Sichtbarkeitsgewinnen/Trafficsteigerung argumentieren, sondern mit Einsparpotenzial
  • Strategischer Schwerpunkt: Um Marktführer in einem Segment oder Thema zu werden muss man Aufwand in Kauf nehmen. Kurzfristige Ziele sind aber dennoch notwendig (z.B. Traffic nach X Monaten)
  • Harte Tatsachen: Aufbau neues Vertical? Dann mit Abschätzung und Erfahrungswerten den Traffic „voraussagen“ (nach Bottom up oder Drop down Methodik)

Fazit: Tolle Session, weil Theresa einem die Augen dafür öffnet, wie man SEO Maßnahmen tatsächlich anhand von Fakten bewertbar macht, so dass es Euch gegenüber Entscheidern leichter fällt notwendige Maßnahmen abgesegnet zu bekommen.

Sören Bendig (SEOlytics): „Content Kannibalisierung & Interne Relevanzprobleme“

Sören Bendig Campixx 2016

Takeaway: Sören zeigte eindrucksvoll wie wichtig es ist penibel genau darauf zu achten welche URLs zu einem Themenbereich ranken und sich im Umkehrschluss zu fragen: „Welches ist meine beste URL zum Thema bzw. welche URL definiere ich für mich als den besten Einstieg aus den SERPs auf meine Seite?“. Optimiert man an dieser Stelle, kann das unmittelbar dazu führen, dass man Rankings und dadurch Traffic gewinnt.

  • Ursachen Relevanzprobleme: mehrere Domains durch z.B. Sprachversionen oder Subdomains
  • Symptome: Pfadwechsel und Mehrfachrankings, Überlagerung von Seitenbereichen wie Info vs Conversion oder Kategorieseiten und Produktseiten
  • Lösungen: Autorität der URL steigern durch interne Verlinkung, Umbau, Redirects, Canonicals oder Deindexierung von URLs
  • Um diese Probleme überhaupt zu erkennen sollte man die Rankings seines Keywordsets täglich tracken und sowie alle Pfade

Fazit: Natürlich kann man dieses Thema nicht in vier einfachen Aufzählungspunkten abhandeln, z.B. sollte man sich Fragen ob es in Einzelfällen nicht Sinn macht Mehrfachrankings bestehen zu lassen, weil die rankenden URLs eigene Nutzerintensionen ansprechen. Denkt dabei bitte auch daran, dass es letztendlich nicht um Sichtbarkeit oder Traffic, sondern um Umsatz und Conversions geht. Diese Kriterien sollte man zumindest im Hinterkopf haben, wenn es darum geht rankende URLs anzufassen oder zu konsolidieren. Vielen Dank an Sören für einen super Vortrag und die Impulse, die sich daraus ergeben.

siehe auch: Session Recap von Anita

Anke Probst (XING AG): „SEO Learnings aus 2015 – was bei XING so richtig rockte”

Anke Probst SEO Campixx 2016

Takeaway: Sitemap-Management rockt und ist gerade bei großen Websites ein Optimierungspotenzial, das man beachten muss! Alleine dafür hätte sich die Session schon gelohnt.

Weitere Optimierungsmaßnahmen in 2015:

  • Auszeichnungen der Profilbilder als imageobject und Google eine möglichst große Variante anbieten
  • Profile responsiv gemacht und insgesamt den angezeigten Inhalt reduziert
  • Interne Verlinkung optimiert: Gleichnamige Personen werden auf einer Übersichtsseite (Userbags) zusammengefasst und aus den User-Profilen werden andere, gleichnamige Personen verlinkt. Effekt: Doppelrankings mit beiden URL-Typen

Fazit: Das sind Vorträge wie ich sie mag. Ein konkreter Case und die Darlegung wie das Ergebnis von Maßnahmen war. Dabei kann man für die eigene Arbeitsweise Impulse mitnehmen, auch auf methodischer Ebene. Der Dank geht an Anke für diesen Vortrag, denn das Zuhören hat echt Spaß gemacht.

siehe auch: Session Recap von Justus

siehe auch: Session Recap von Anita

Svenja Hintz (Audisto GmbH): „45 Minuten, die Deine Sicht auf Paginierung grundlegend verändern werden“

Svenja Hintz SEO Campixx 2016

Takeaway: Selbst „grundlegende” Funktionen wie die Paginierung von Seiten bieten erhebliches Optimierungspotenzial und sollten im Idealfall wirklich überdacht werden.

  • Mit Hilfe eines Testszenarios hat Svenja gezeigt, wie sich die Verteilung von internen Pagerank und Cheirank und die Anzahl der Levels je nach Paginierungsart verändert
  • Je nachdem welche Seitenarten man stärken möchte, sollte man sich ein geeignetes Paginierungskonzept überlegen
    Beispiel: Chip.de Paginierung, die die Zehnerschritte (z.B. 70) als Paginierung verwenden und darunter eine Sub-Paginierung mit Einerschritten (71-79) eingeführt haben

Fazit: Die Darstellung der Auswirkungen verschiedener Paginierungsarten auf die Verteilung von internen Pagerank ist nicht die Leichteste. Vor allem nicht in einer Präsentation. Svenja schaffte es aber durch einen gelungenen, flüssigen Vortragsstil, die wesentlichen Punkte zu vermitteln. Auch wenn das Thema an sich ein sehr eng abgestecktes zu sein schien, wurde deutlich, welches Potenzial man durch Nichtbeachtung verschenken kann.

siehe auch: Session Recap von Anita

Recap von Justus

Jens Altmann (gefruckelt.de) „Secure your company“

Takeaway: Hacking ist ein allgegenwärtiges Problem, mit dem sich zu wenige Unternehmen ausreichend beschäftigen, in der Regel nämlich erst dann, wenn es schon zu spät ist.

Das betrifft einerseits Serversicherheit und andererseits Vorsicht im Umgang mit mobilen Geräten und den darauf befindlichen Daten. „Wer sensible, geschäftskritische Daten auf einem Laptop mit sich herumträgt, hat etwas falsch gemacht“ – das zu ändern wird für viele schwierig sein, aber kleine Schritte sind besser als gar keine:

  • Alle Devices vollständig verschlüsseln, nicht nur den Zugriff mit einem Passwort erschweren (sollte selbstverständlich sein, ist es für zu viele aber nicht)
  • Immer mit einem VPN surfen, der vollständig unter eurer eigenen Kontrolle ist und lokal bei euch im Büro steht
  • Bei besonders sensiblen Aufgaben eine virtuelle Maschine starten, in der man ungestört arbeiten kann und die nach der Benutzung wieder vollständig gelöscht werden kann

Als CTO von patronus.io beschäftigt sich Jens auch mit Serversicherheit und überwacht Server auf Eindringlinge und manipulierte Dateien. Zwei weitere nette Tipps:

  • NoSQL Datenbanken wie MongoDB oder auch eine Elasticsearch sind standardmäßig nicht gegen Zugriff von außen gesichert, weil von der internen Nutzung ausgegangen wird und die Installation gar nicht von außen aufgerufen werden kann. Trotzdem werden sie häufig so aufbaut, dass sie über die Standardports aufruf- und die Daten auslesbar sind.
  • Ein einfacher Tipp zum Bemerken von WordPress-Hackingversuchen: Einen mail() Aufruf in die 404.php packen, um mitzubekommen wenn jemand eine große Zahl nicht existenter URLs aufruft in der Hoffnung einen Angriffsvektor zu finden.

Fazit: Wichtige Hinweise, die gar nicht oft genug kommen können! Vorsicht ist besser als Nachsicht.

Gregor Meier (SEO One): „PageSpeed – Mach deine Seite zum Ferrari“

Takeaway: Pagespeed ist ein sehr vielseitiges Thema und Gregor ist es gelungen, noch einmal klarzustellen, dass der Prozentwert von Google Pagespeed Insights zwar ein plakativer Wert ist und einem sehr direktes und einfaches Feedback über die Auswirkungen von Optimierungen liefert, aber eben nicht der Weisheit letzter Schluss ist.

Google Chrome bringt schon von Haus aus mit, was das Pagespeed-Herz begehrt!

Kai Spriestersbach (Search One): „RankBrain – Künstliche Intelligenz, Neuronale Netze, DeepLearning“

Takeaway: Kai hat in einer Doppelsession mit spannenden Beispielen sehr anschaulich demonstriert, welche Macht im Thema Machine Learning steckt. Wie viel Interesse an dem Thema herrscht zeigte sich schon am großen Besucherandrang – der Vortrag hätte problemlos den größeren Raum „Lexware” gefüllt. Nicht auf Menschen vertrauen zu müssen, um Entscheidungen zu treffen wie ein Algorithmus ablaufen muss oder welche Parameter wie gewichtet werden müssen, bringt eben enorme Vorteile. Einige von Kais Beispielen:

  • ML-basierte Erkennung von Brustkrebs in Mammographie-Bildern ist besser als ein erfahrener Arzt. Über kurz oder lang werden Maschinen wie IBM’s Watson zwangsläufig notwendig sein, um den riesigen Berg an medizinischem Wissen verarbeiten zu können, weil selbst Spezialisten keinen Überblick mehr haben. Maschinen werden auch nach 8 Stunden im OP-Saal nicht müde, sind schneller und genauer
  • Sehr aktuell: AlphaGo ist eine Google-Software, die gerade dabei ist, den weltbesten Go-Champion zu schlagen. Das Spiel Go ist extrem komplex und die Anzahl an möglichen Zügen übersteigt die Anzahl Atome im Universum
  • Textzusammenfassung ist schon jetzt im Praxiseinsatz und funktioniert
  • Selbstlernende Algorithmen können Musik generieren, die man dann urheberrechtsfrei z.B. zur Untermalung von Videos nutzen kann

Im Bezug auf SEO sind die Auswirkungen schon jetzt zu sehen: Die immer häufiger auftretenden Knowledge Graph Einbindungen sorgen dafür, dass es gefährlich ist, jetzt noch ein Geschäft aufzubauen, das rein datenbasiert ist. Das zeigt sich schon länger an Implementierungen wie Kalorientabellen, Verwandschaftsbeziehungen bei Personensuchen oder Todesursachen.

Fazit: Super Impulse von Kai! Das Thema ist so vielseitig, dass sogar die Doppelsession nicht ausgereicht hat, um die technische Umsetzung zu besprechen – auf jeden Fall ein Thema, mit dem ich bis zur nächsten Campixx näher auseinandersetzen will.

siehe auch: Session Recap von Michael

Anke Probst (Xing): „SEO Learnings aus 2015 – was bei XING so richtig rockte“

Takeaways: Was Stefan schreibt +

  • Sichtbarkeitswerte in SEO-Tools sind keine KPI, sondern ein Analysewerkzeug (!)
  • Viel mehr automatische Traffic-Alerts aufsetzen, insbesondere für Reports, die man sich seltener anschaut wie z.B. SEO-Bildertraffic. Insbesondere bei großen Unternehmen kommt es zwangsläufig dazu, dass Technik & SEO nicht immer 100% abgestimmt sind, sich z.B. unerwartet URLs ändern und man die Auswirkungen später mitbekommt als eigentlich nötig

Fazit: Vielen Dank an Anke für die Insights – konkrete Fallbeispiele an echten Umsetzungen sind genau das, was gute Campixxvorträge ausmacht!

siehe auch: Session Recap von Stefan

siehe auch: Session Recap von Anita

Recap von Michael

Hannes Richter (Projecter): So treibst Du den Google-Keywordplaner zur Höchstleistung

Hannes Richter Projecter SEOCampixx 2016

In der ersten Session um 10:30 Uhr ging es um eine der Grundfragen im SEO: Optimiert man auf Keywords („Oldschool”) oder auf Themen und Ideen. Wobei die zweite Option die Keywords eher um eine Richtung erweitert und sich beides nicht immer ausschließen muss.

  • Ein schönes Beispiel in der Präsentation war ein Keyword aus der Reisebranche. Optimiert man auf „Marokko reisen“ oder schreibt man einen aufwändigen Blogpost zu „Game of Thrones Drehorte”? Entscheidet man sich für die Drehorte, so hat man einen besseren Draht zum Nutzer, denn das Thema spricht gerade Nutzer an, die eventuell noch gar nicht an Marokko oder Kroatien gedacht haben.
  • Schnell kommt man auch mit dieser Herangehensweise an neue Herausforderungen. Zu thematische Inhalte sind häufig nicht Keyword optimiert, man könnte auch sagen „too much Content Marketing kills the Keyword Rankings”.
  • Im Hands-On-Teil des Vortrags ging es nun darum möglichst automatisiert viele Keywords aus dem Google Keywordplaner heraus zu ziehen. Dabei hatte Hannes iMacros vorgestellt. Mit dieser Browserextension kann man Anweisungen im Browser (Firefox, Chrome) aufzeichnen. Danach werden die vorher aufgezeichneten Klicks wiederholt um in vielen Schleifen wiederholt neue Daten aus dem Keywordplaner zu ziehen. So umgeht man auch die Limits von 1.000 bzw. 3.000 Keywords je Abfrage und kann deutlich skalieren.

Fazit: Ganz ohne technisches Verständnis klappt die Automatisierung in iMacros aber nicht. Um die Daten zu speichern bedient sich Hannes einer PHP Datei auf einem Server. Die genauen Details dazu liest man im Blog von Projecter.

Michael Schulze: Von der Idee zur Umsetzung

Als Vertretung für Thomas Schulze hielt sein Bruder Michael einen Vortrag. Er hatte das Projekt zur „verlorenen Socke” dabei. Der Anspruch war hier nicht das schönste Projekt zu zeigen, sondern nach dem Motto „better done than perfect”.

Vor allem ging es in dieser Session um Ideen, wie man auch ein unspektakuläres Thema doch nach vorne bringen kann. Mit Beispielen wie dem „Verlorene Socke Tag” der jährlich in Deutschland zelebriert wird und einem Filmwettbewerb auf www.filmwettbewerbe.de konnte Michael ein paar Praxistipps zeigen, wie man effektiv Reichweite bekommen kann.

Fazit: Auch mit unspektakulären Themen kann man auch 2016 noch eine Nische besetzen wenn man kreative Ideen hat.

Kai Spriestersbach: Künstliche Intelligenz, Neuronale Netze, Deep Learning

Kai Spriestersbach SEOCampixx 2016

In der Session mit Kai Spriestersbach ging es um Künstliche Intelligenz. Die Fragen drehten sich darum was ein Computer kann (Rechnen) und was er nicht kann (Kreative und abstrakte Lösungswege finden). In verschiedenen Slides wurde dargestellt, wie die Rechenleistung das menschliche Gehirn schon bald überflügelt haben wird.

  • Menschen mit Computern zu vergleichen ist auch 2016 noch schwierig. In welcher Skala man die Leistung misst stellt aber den Knackpunkt dar. Reine Rechenoperationen können Computer schon seit Jahrzehnten schneller ausführen als ein Mensch. Abstrakte Lösungen finden aber nur Menschen.
  • Wir leben in einer spannenden Zeit was die Entwicklung von KI angeht. Kürzlich erst wurde der Weltmeister im Brettspiel Go von Google’s Deep Mind geschlagen. Obwohl das Spiel nahezu unendlich mögliche Spielzüge und Situationen kennt, hat ein Computer diese sinnvoll abstrahieren können. Nicht über die Berechnung aller möglichen Züge sondern über eine gute Abstraktion konnte der Computer mehr Züge voraus rechnen als der Großmeister.
  • Aus (blackhat) SEO-Sicht ist die Frage spannend: erkennt eine KI auch einen Text die wiederum von einer gleichmächtigen KI geschrieben wurde? Textspinnig war eine ehemalige (Spam) Disziplin aus der Rubrik SEO. Ob man in Zeiten der KI auch Feuer mit Feuer bekämpfen kann?
  • Schön war auch das Beispiel von Super Mario, der von einer KI gelenkt jedes Level perfekt absolvierte:

Fazit: Gerade auch für Suchmaschinen hat das Thema Künstliche Intelligenz einen sehr wichtigen Stellenwert. Wie viele Stellschrauben im Suchergebnisalgorythmus werden in Zukunft von Menschen definiert? Und wie viele Regeln wird die KI selbst aufstellen um zu definieren, was ein gutes Ergebnis ist?

Viele dieser spannenden Fragen wurden in der Session besprochen und man konnte so einiges mitnehmen.

Die Quintessence für alle SEOs ist die Zielsetzung einen „Walled Garden“ für seine Nutzer zu bauen. Von innen eine schöne Umgebung aber wenig Möglichkeiten diese Umgebung wieder zu verlassen. Typische Beispiele für solche Umgebungen sind Apples iOS, Android oder Amazon und entsprechende Apps.

siehe auch: Session Recap von Justus

Marcus Tandler: Hands On Workshop

Marcus Tandler Danny Linden SEOCampixx 2016

Die letzte Session am Samstag gab Marcus Tandler mit Sidekick Danny Linden aus dem OnPage Team. Zusammen analysierten sie adhoc mehrere Seiten und sprachen dabei sehr viel über Google Updates Panda und Penguin.

  • Laut Marcus sollte man sich bei jeder Seite drei Fragen stellen:
    • brauche ich die Seite für meine Nutzer?
    • soll die Seite zu einem Keyword ranken?
    • soll die Seite indexiert werden?
  • Thema Content: In dieser Session wurde mit viel Nachdruck die Empfehlung gegeben unnötigen Content zu vermeiden und nicht nach der Zahl indexierter Seiten zu optimieren, sondern durch gute Inhalte zu überzeugen. Qualität statt Quantität.

Fazit: Versucht auch 2016 wieder mit gutem Content zu überzeugen. Die analysierten Beispiele hatten alle diese eine Schwäche. Spart man sich die schwachen Inhalte so kann das auch positiv das verfügbare Crawlbudget (wie viel Zeit verwendet Google darauf die Inhalte zu lesen und indexieren) auswirken.

siehe auch: Session-Recap von Florian

Recap von Anita

Carolin Hoffmeyer (ReifenDirekt): SEO International: Keyword Analyse, Freelancer Management und mehr“

Takeaway: Bei Keywordanalysen in anderen Sprachen immer einen Native Speaker am Ende nochmal gründlich drüber schauen lassen.

Fazit: Wie ich erst später bemerkt habe, ein Einsteiger-Vortrag, der aber die wesentlichen Punkte inkl. Hreflang-Attributen und Google Search Console gut abgedeckt hat. Ohne Muttersprachler bringt die beste Analyse nichts und das ganze im großen Stil zu betreiben für große Mengen von Inhalten, Sprachen sowie umfangreicheren Themenanalyse ist keine unkomplexe Sache, die bei sorgfältigem Vorgehen ziemlich zeitintensiv werden kann.

Jens Bonerz (Hightech Marketing Group) Data Mining Reloaded – In 30 nur Minuten zum eigenen Webcrawler

Takeaway: Je nach dem wie einfach zugänglich Informationen bereit gestellt werden ist es mit ein wenig Know How möglich, große Mengen an Daten abzufragen und anderweitig weiter zu nutzen / filtern / etc.

  • Jens nutzt dazu folgende Tools: Elastic zur Datenanalyse und Scrapy zum Data Mining; sein Beispiel zeigt, wie er mit Hilfe dieser beiden Werkzeuge Daten aus dem Portal der Landesjustizverwaltung für Zwangsversteigerungen ausgewählte Informationen extrahiert und diese auswertet
  • Wenn man Ahnung hat von dem, was man tut, geht das auch verdammmt schnell, das vorgestellte Beispiel wurde in ca. 3 Stunden umgesetzt
  • In der täglichen Arbeit nutzt Jens Scrapy und Elastic vor allem, wenn es irgendwo keine API zur Hand gibt, aber irgendetwas überwacht werden soll, bzw. Für Inhouse-Tools und Alerts
  • Plugin-Empfehlung für Firefox: XPath Checker

Fazit: Super spannend, toll was man damit alles machen kann, muss ich unbedingt mal ausprobieren. Hab mich in der Vergangenheit leider noch nie gründlicher damit befasst, aber scheint ja wirklich ziemlich einfach zu sein – auch wenn man wie ich nur so ansatzweise technisch affin ist.

Conny Stier (Searchteq GmbH): „SEO Produktspezifikation für RWD: Konzeption mit Wireframing“

Takeaway: Wir denken alle noch nicht wirklich „Mobile First” weil wir vom Desktop her kommen; Wireframes nicht zu hübsch machen, sonst werden die am Ende 1:1 übernommen und nicht mehr richtig schön designed. Wenn in der mobilen Ansicht nicht alle Inhalte benötigt werden und nur die geladen werden, die tatsächlich notwendig sind, wird die Seite schneller.

  • Conny rät zu Responsive Webdesign, was auch die von Google bevorzugte Lösung für die mobile Bereitstellung von Inhalten ist – da bin ich voll und ganz bei ihr
  • Bevor es an die Wireframes geht, werden die Traffic-Anteile analysiert und Minor / Major Breakpoints definiert
  • Dafür sorgen, dass Designer und Entwickler jeweils für sie relevante Informationen erhalten und während der Umsetzung auch ein Austausch stattfindet
  • Bevorzugtes Wireframing-Tool: Balsamiq

Fazit: Sinnvoll, für derartige Projekte, vor allem, da wiederkehrend, einen gut strukturierten Prozess zu haben. War spannend, dieses Beispiel aus der Praxis mit nebenher sämtlichen wichtigen Facts vorgestellt zu bekommen.

Sören Bendig (SEOlytics): „Content Kannibalisierung & Interne Relevanzprobleme“

Takeaway: Im Snippet so konkret wie möglich auf die Suchanfrage eingehen und vor allem bei Long Tail Anfragen sicherstellen, dass das Ergebnis nicht zu allgemein gehalten ist; nur eine URL auf Position 1 muss nicht immer unbedingt besser sein als zwei URLs auf Position 2 & 3

  • Oftmals wird einfach nur immer mehr Content produziert, verteilt über verschiedene Unternehmensbereiche, ohne das Ganze zu koordinieren, wodurch schnell Überschneidungen entstehen
  • Verschiedene Ursachen können zu Mehrfachrankings führen; die einzelnen Ursachen anhand ausgewählter Fälle manuell auflösen und analysieren, verschiedene Möglichkeiten ausprobieren und schauen, womit man bessere Effekte erzielt, dann die übrigen Fälle mit gleicher Ursache nachziehen
  • Verschiedene Methoden zum Auflösen können sein: Interne Verlinkung, Offpage, Umbau, Canonical, Redirects, Noindex

Fazit: Schöner Vortrag von Sören mit sehr vielen Beispielen aus der Praxis. Wenn man richtig mit diesen Fällen umgeht, kann man da viel rausholen.

siehe auch: Session Recap von Stefan

D.Behne, M. Krautkrämer (mediaworx berlin AG): „Fuck off Suchvolumen und KEI – Next Level Contentpriorisierung“

Takeaway: Neben Suchvolumen und Keyword Efficiency Index andere Methoden zur Bewertung und Priorisierung von Keywords / Themen entwickeln und nutzen

  • Marcus und Danny haben ihr selbstgebautes kleines Tool vorgestellt, mit dem sie ihre Inhalte priorisieren

Fazit: Sinnvoller Ansatz, kann man sicher noch weiter ausbauen.

siehe auch: Session-Recap von Johan

Holger Etzel (Searchmetrics GmbH): „Aweseome!” Oder auch: SEO ist Zen

Takeaway: Kleine Aufgabenpakete statt riesige Analyse führt bei Searchmetrics-Kunden zu mehr Fokus und schnelleren Umsetzungen

  • Holger gewährte in seinem Vortrag ein paar Einblicke in die Beratungssparte von Searchmetrics
  • Statt einem riesigen Berg an Aufgaben erhält der Kunde monatlich kleine Pakete mit nur wenigen Aufgaben, dadurch kann er sich voll und ganz auf diese fokussieren
  • Natürlich erfolgt schon am Anfang eine umfangreiche Analyse durch Searchmetrics, die vollumfänglichen Ergebnisse werden aber nicht an den Kunden gegeben, sondern intern priorisiert und dann eben in Form von einzelnen Paketen nach und nach an den Kunden gegeben

Fazit: Ein extrem interessanter Ansatz, der einen auch zum Nachdenken anregt. Denn egal wie gut der Input fachlich sein mag, wenn man ihn nicht richtig zum Kunden rüber bekommt bzw. die Umsetzung nicht entsprechend gesteuert und betreut wird, hat man in der Beratung ein Problem. Vielen Dank Holger für die spannenden Einblicke!

siehe auch: Session Recap von Matze

Sebastian Erlhofer (mindshape GmbH): „Von der Graphentheorie zur internen Verlinkungsoptimierung”

Takeaway: Unbedingt mal wieder mit Gephi spielen.

  • Sebastian zeigte auf sehr anschauliche Art und Weise, wie man die interne Verlinkung mit Hilfe von Gephi visualisieren und Analysieren kann und erklärte ein paar wesentliche Begrifflichkeiten

Fazit: Meiner Meinung nach sind Vorträge, in denen solche Tests vorgestellt werden, mit die spannendsten und sinnvollsten, die man sich auf einer Veranstaltung wie der Campixx anhören kann. Sehr cool!

siehe auch: Session Recap von Florian

Anke Probst (XING AG): „SEO Learnings aus 2015 – was bei XING so richtig rockte”

Takeaway: Anke mag Minions und macht cooles Zeug bei und für XING.

  • Details in den Recaps der Kollegen :)

Fazit: Mit dem richtigen Standing für das Thema Suchmaschinenoptimierung in der Firma und entsprechenden (Entwickler-)Ressourcen kann man als Inhouse SEO einiges rocken und es ist toll zu sehen, wie viel Spaß Anke bei der Sache hat :) Good job und weiter so!

siehe auch: Session Recap von Stefan

siehe auch: Session Recap von Justus

Svenja Hintz (Audisto GmbH): „45 Minuten, die Deine Sicht auf Pagnierung grundlegend verändern werden”

Takeaway: Optimale Form der Paginierung abhängig von der Seite. Guter Impuls, sich das nochmal bewusst zu machen und nicht „1 fits all”.

  • Svenja hatte einen ausführlichen Test im Gepäck der veranschaulichte, welche Auswirkungen unterschiedliche Pagnierungskonzepte auf PageRank und CheiRank haben
  • Chip.de hat ein interessantes Konstrukt am Start, bei dem die Seitentiefe besonders gering ist

Fazit: Mit einer sinnvollen Paginierung kann man einiges erreichen, wenn man sich entsprechend damit auseinandersetzt. Obwohl letzter Vortrag am Sonntag Nachmittag zu recht gut besucht und schöner Abschluss!

siehe auch: Session Recap von Stefan

Recap von Matthias

Hans Jung: „WordPress SEO“

Hans Jung WordPress SEO
Takeaway: Der Vortrag von Hans Jung hat sich im groben und ganzen anhand der Google Search Console orientiert und ging insbesondere auf verschiedene nützliche WordPress Plugins ein, von denen im Folgenden einige besonders Relevante aufgeführt werden:

Fazit: Wer sich bislang noch nicht näher mit WordPress und Plugins beschäftigt hat, wird aus diesem Vortrag eine ganze Menge nützlicher Informationen (Plugins) für seine eigenen WordPress Projekte mitgenommen haben. Der Hinweis Plugins nach Möglichkeit nicht automatisch zu updaten und bei der Auswahl von Plugins darauf zu achten wann diese zuletzt aktualisiert wurden, war als Sicherheitshinweis auch dem einen oder anderen erfahreneren WordPressler noch unbekannt, so dass vom Anfänger bis Profi jeder etwas in diesem Vortrag gefunden hat.

Gustav Kemter: „SEO mit dem Frosch“

Gustav-Kempter-SEO-mit-dem-Frog
Takeaway:

  • ToolTipp fürs Link, Content & Social Data Audit: URL Profiler
  • Alternativ Empfehlung für SEO Frog: Audisto

Fazit:Gustav Kempter ist die einzelnen Funktionen von SEO Frog, nach einer Empfehlung Audisto als Alternative auszuprobieren am Beginn des Vortrags, Stück für Stück durchgegangen. Für den erfahreneren SEO-Frog-User keine neuen Erkenntnisse.

Florian Stelzner: „SEO Expert Panel – Leute, wir müssen reden“

  • Ein Seiten Relaunch, insbesondere bei großen Firmen/Konzernen, ist oftmals sinnvoller als alle Fehler, Probleme und Baustellen der Seite zu beheben. Das Problem liegt hierbei in den langen Wegen die von der Einreichung bis zur Implementierung vergehen können. Im Podium wurde das Beispiel von vier Jahren für einen Implementierungsvorgang erwähnt. Ein kompletter Relaunch kann hier also als Neustart der Seite nicht zur Problembehebung dienen sondern auch um die Arbeitsauslastung der einzelnen Abteilungen zu resetten und so riesige Kapazitäten freisetzen.
  • A und O einer jeden Maßnahme ist das Briefing, rechtzeitiges Eingreifen bei anbahnenden Verzögerungen sowie eine Einbindung der an der Maßnahme beteiligten Personen. Insbesondere die, oftmals nicht vorhandene, Wertschätzung der umzusetzenden Webdesignern, Entwicklern, Textern (u.v.m.) wird empfohlen mehr hervorzuheben. Wir sind alles nur Menschen und wollen das unsere Arbeit auch anerkannt wird!
  • Nach wie vor gilt das Credo: das was die eigentliche Dienstleistung des SEO ist, ist Vertrauen!

Fazit: Eine gelungene Veranstaltung mit aktuellen und wiederkehrenden Themen sowie einem Gedankenaustausch zwischen Podium und Publikum bei der auch die eine oder andere Frage beantwortet werden konnte wie andere SEOs denn mit ihren alltäglichen Berufsherausforderungen umgehen.

siehe auch: Session Recap von Florian

Olaf Pleines „RELAUNCH – Wer ihn tadelt liegt falsch“

Olaf Pleines Relaunch

  • Ein SEO sollte in allen Phasen (Konzeptionsphase, QS & Testingphase, Deploymentphase) eines Relaunches beteiligt und eingebunden sein um mögliche Probleme bereits vor und nicht erst nach dem Relaunch zu identifizieren und beheben.
  • Olaf Pleines hat empfohlen ein SEO Lastenschrift anzulegen in welchem mit dem Auftraggeber und allen weiteren Beteiligten in der Konzeptionsphase festgelegt wird was umgesetzt werden soll. Folgende Punkte sollten als „must have” in jedem Fall aufgeführt werden:
    • Inhaltliche Kriterien:
      • Briefing für die CMS Pflege
      • Produktbeschreibungen
      • Verwendung von Medien
      • Vorgabe für title, description, opengraph, etc.
      • Übersetzung von Inhalten
      • Vermeidung von generischen Begriffen
    • Technische Kriterien:
      • Indexierungslogik & Navigationsstruktur
      • Dokumentstruktur
      • URL- und Parameterspezifikationen
      • Pattern für title, description, opengraph, etc.
      • Server Konfigurationen
      • Medienspezifikationen (Bilder, Videos, ..)

Fazit: Olaf Pleines hatte einige technische Probleme zu Beginn. Reminder: Präsentation & Präsentationsmedium vor der Präsentation einmal durchlaufen. Der Vortag an sich war für jeden der noch nicht selber einen Relaunch durchgeführt hat sehr interessant, anschaulich und unterhaltsam durchgeführt. Die einzelnen Steps eines Relaunches sowie auch mögliche auftretende Probleme im umsetzenden & zwischenmenschlichen Bereich und dazu passende Lösungsansätze wurden präsentiert.

Holger Etzel: Awesome!

Holger Etzel Awesome
Takeaway: Zen = SEO und SEO = Zen.

  • Das Wissen teilen und zwar in kleinstmögliche Schritte um den Wissenstransfer vom Nerd zum Nicht-Nerd verständlich zu gestalten. Hierzu empfiehlt Holger Etzel bei einem Jahresprojekt die Gesamtanzahl der Aufgaben in viele kleine Schritte zu unterteilen und diese stückweise auf Monats- und Quartalsbasis runterzuzbrechen. Der Vorteil hierbei ist, dass sich keine „gefühlte Überforderung” bei einem großen Aufgabenpaket einstellt und somit klar die Aufgabenabarbeitungspriorisierung vorgegeben ist.
  • Keine Alternativen zu den festgehaltenen Schritten/Aufgaben vorgeben. Alle Beteiligten einigen sich zu Anfang des jeweiligen Projektes auf das Gesamtziel und die kleineren Ziele (Monats-, Quartalsweise). Somit gibt es keine wirklichen Ausreden (Spielraum) mehr warum dieses oder jenes nicht geklappt hat, da man sich gegenseitig auf Ziele verständigt hat und diese auch erreichen will.
  • Techniker, Designer, also alle die an der Umsetzung der Aufgaben beteiligt sind müssen auch entsprechend eingebunden und wertgeschätzt werden. Auch bei Antworten wie „Das geht nicht”, „das kann ich nicht” die Menschen einbeziehen, mit ihnen ein persönliches Gespräch suchen und ihnen zum einen verständlich machen warum und weshalb etwas (trotzdem) gemacht werden muss (auch aus SEO Sicht („Nerd > Nicht-Nerd”).
  • Wenn Aufgaben auf Monats- und Quartalsbasis noch offen sind, werden keine weiteren Tasks gestellt bis die offenen erledigt sind. Laut Holger Etzel funktioniert das in der Theorie zu 100% – in der Praxis (wenn man den Schritt des Commitments getätigt und die Ergebnisse festgehalten hat) immerhin zu 70%.
  • In der Regel ist die Arbeit bei so einem 12-Monats-Projekt, wenn man nach der Zen Theorie von Holger Etzel geht, am höchsten im ersten Monat, dafür in den folgenden Monaten geringer und mehr in Form von begleitender Coaching/Beratung.
  • Zen = SEO und SEO = Zen – dies bedeutet im Umkehrschluss, dass der SEO Consultant der Zen Meister ist. Ein guter Meister vereint hierbei immer beide Seiten einer Medallie: er muss Härte gegenüber dem Auftraggeber zeigen wenn es angebracht ist (Beispiel: Tasks nicht umgesetzt) aber auch Lob geben.

Fazit: Ein überraschend anderer und erfrischender Vortrag! Hier lag der Fokus von Holger Etzel weder auf dem technischen noch fachlichen sondern auf einem philosophisch-zwischenmenschlichen Aspekt. Ein guter Ansatz der die sonst rein sachlichen Betrachtungsweisen der verschiedensten Facetten eines Projektes ergänzt und komplementiert. Denn es gilt wieder „Wir sind alles nur Menschen” – Lob und Tadel zur richtigen Zeit und die Chancen, dass ein Projekt nicht nur im Zeitrahmen bleibt sondern auch alle an einem Strang ziehen!

siehe auch: Session Recap von Anita

Fabian Drescher: „Affiliate-Überraschung“

Takeaway: Es gibt noch immer jede Menge Wege um Affiliate zu betreiben, dass sich nicht nur lohnt sondern auch sinnvoll ist – man muss nur Augen und Ohren offen halten!

Fazit: Fabian Drescher hat seinen Zuhörern interessante Wege aufgezeigt wie man mit relativ geringem Aufwand einen hohen Output erreichen kann – wenn man nur nicht aufgibt und sich zu den anderen 97% gesellt die ebenfalls nicht die „Nerven” hatten um ein Projekt durchzuziehen bis es sich in einen Selbstläufer verwandelt und Gewinn abwirft. Alleine die Präsentation des von Fabian Drescher entwickelten Prototyp-Affiliate-Projekts hat schon den einen oder anderen phantasievollen SEO weitere Möglichkeiten aufgezeigt in welchen Bereichen noch Affiliate möglich ist und man sich dort den Kuchen nur mit wenigen anderen Teilen muss.

Sebastian Blum: „WordPress professional“

Sebastian Blum WordPress professional
Takeaway: Sebastian Blum hat einen sehr interessanten Überblick über die aktuelle Sicherheitslage für WordPressSysteme geliefert mit vielen nützlichen Plugins und Beispielen.

  • TeslaCrypt ist derzeit – leider – groß im Kommen. TeslaCrypt sucht sich Schwachstellen in veralteten CMS / Plugins / WordPress Installationen und verschlüsselt, im schlimmsten Fall, vom Serverlastigen Backup bis zur Datenbank alle vorhandenen Dateien. Es kann in diesem Fall sogar zu einem Befall des Seitenbesuchers über Lücken in InternetExplorer, Adobe Flash Player und Reader kommen. Gegen eine Zahlung in Bitcoins wird dem Seiteninhaber angeboten die Daten wieder zu entschlüsseln. Geht man auf dieses Angebot (ohne Garantie) nicht ein, bleibt einem nur ein kompletter Neuaufsatz. Eine weitere Ransomware die derzeit kursiert ist CTB-Locker.
  • Externe Backups anlegen von Datenbank und Serverinhalt ist nicht obligatorisch sondern Pflicht!
  • Folgende Tools empfiehlt Sebastian Blum:

Fazit: Ein sehr durchdachter, strukturierter und relevanter Vortrag für alle die mit WordPress arbeiten und sich mit der Sicherheit der Systeme beschäftigen. Spätestens nach dem Vortrag sollte sich jeder dem Thema WordPress Sicherheit annehmen. Sebastian Blum hat eine gute Komposition aus technischem und theoretischem Inhalt vorgetragen und auch mit passenden Beispielen aus der Praxis unterfüttert. Mit seiner lockeren aber dennoch nachvollziehbaren Sprache hat Sebastian Blum zielgerichtet durch den Vortrag geführt und auch zahlreiche Fragen aus dem Publikum kompetent beantwortet. Von allen besuchten Vorträgen der Beste, mit Abstand. Wer interessiert ist, sich die vortragsbegleitende Präsentation anzusehen, findet diese unter sblum.de/seocampixx.

TL;DR

Danke an Marco, running Rudi und alle anderen SpiritR für ein wie immer grandioses Event. Wenn Ihr diesen Leuten begegnet, zögert nicht sie auf eine Fruchtschorle einzuladen:

campixx-team

Weitere Recaps

Slides der Vorträge

Slide oder Dein Recap nicht dabei? Schnell melden: kontakt@wngmn.de


Verlinkt von

[…] wngmn.de/blog/recap-der-8-seo-campixx-2016-in-berlin/ […]

SEO Campixx 2016 Recap - 36grad Kreativagentur am 14. März 2016 um 17:31:46

[…] wngmn.de/blog/recap-der-8-seo-campixx-2016-in-berlin/ […]

[…] Recaps von: Eric Schulz Johannes Haupt Sebastian Blum Uwe Hamann Sebastian Erlhofer Wingmen Online Marketing Jens Altmann Heiko Höhn Clicks Online Business Arbresha Zymeri Sven Deutschländer Tobias […]

Campixx Week & SEO Campixx 2016 Recap *beta ;) am 14. März 2016 um 19:14:30

[…] Wingmen Online Marketing – Recap der 8. SEO Campixx 2016 in Berlin […]

[…] Nach einem Jahr Abwesenheit, ging es nun wieder zur allseits bekannten SEO Campixx – dem Höhepunkt der Campixx Week oder für viele auch den Höhepunkt des SEO-Jahres. An dieser Stelle nun ein paar kurze Eindrücke aus meiner Sicht. (wer es gern ausführlicher haben möchte, schaut auf jeden Fall mal bei Wingmen vorbei.) […]

CAMPIXX 2016 Recaps & Slides am 15. März 2016 um 07:10:49

[…] Anita Böhm […]

Seo Campixx Days 2016 Recap - Tims Blog am 15. März 2016 um 13:40:12

[…] wngmn.de/blog/recap-der-8-seo-campixx-2016-in-berlin/ […]

SEO Campixx • wrel.de am 18. März 2016 um 16:54:30

[…] Dieses Jahr fand die 8. SEO Campixx statt. Das hier ist ein kleines Recap von mir zu der etwas anderen Konferenz. Ein umfassenderes Recap dazu gibt es auch hier. […]

[…] wir uns auf SEO-Campixx 2016 die Hände im Maschinenkeller schmutzig gemacht haben, haben Florian, Justus und Johan auf der SMX […]

Kommentare

Olaf am 15. März 2016 um 12:42:55

Hi!

Vielen Dank das Ihr meinen kleinen Vortrag besucht habt und er Euch scheinbar gefallen hat :-)

Hinsichtlich technischen Probleme … mein Tipp:
PowerPoint Präsentationen die animierte SmartArt enthalten, die auf einem MacBook Pro mit einer alten PowerPoint Version funktionieren, laufen noch lange nicht ordentlich auf einem MacBook Air mit PowerPoint 2016 … zumindest nicht wenn sie auf einem Windows PC mit PowerPoint 2013 erstellt wurden … arrrgh … :-)

Vielen Dank und Grüße
Olaf

Florian am 19. März 2016 um 23:46:59

Hallo Anita,

sehr ausführliches Recap zur Campixx Week habt ihr hier verfasst. Würde mich freuen, wenn ihr auch mein Recap in die Liste mit aufnehmen würdet:

http://www.florianhiess.com/de/seo/seo-campixx-2016-recap

Viele Grüße aus Wien,

Florian

    Anita Böhm am 29. März 2016 um 09:25:42

    Hi Florian,

    danke für deinen Hinweis :)
    Haben dein Recap bereits ergänzt!

    Viele Grüße aus Hamburg,

    Anita

Henrik am 23. März 2016 um 15:52:11

Hi Anita, ich habe Deinen sehr ausführlichen Recap zur Campixx von meinem Recap aus verlinkt. http://www.seorise.de/seo-campixx-2016/ Vielleicht kannst Du meinen Recap auch mitaufnehmen? Gruß Henrik

    Anita Böhm am 29. März 2016 um 09:34:49

    Hallo Henrik,

    soeben passiert :) Danke für den Hinweis!

    Einen guten Start in die Woche &
    Viele Grüße,

    Anita

Stefan Godulla am 27. März 2016 um 15:03:52

Hallo Anita,

mit etwas Verspätung kommt nun hier auch mein Recap. Wäre toll wenn Ihr den noch mit aufnehmen könntet:
http://blog.cts-media.eu/details/seo-campixx-days-2016-recap-seocampixx.html
Herzlichen Dank und frohe Ostern!
Stefan

    Anita Böhm am 29. März 2016 um 09:36:40

    Hi Stefan,

    habe ich mit aufgenommen. Danke für deinen Link zu uns! Ebenfalls noch frohe Ostern :)

    Viele Grüße,

    Anita

Pavel am 27. März 2016 um 19:42:17

Hallo Anita,

Es gibt ein Keywords Mixer Tool http://keywordstoaster.worldofsolomon.com/ das ich empfehlen möchte.

Mfg,
PR.

    Anita Böhm am 29. März 2016 um 09:38:05

    Hi Pavel, danke für den Tipp & Viele Grüße!

Lars am 30. März 2016 um 20:30:34

Hallo Anita,

mit deutlicher Verspätung haben wir aus unserer Session auf der Campixx einen kleinen Blog namens DeepLinked.org gemacht.
Außerdem haben wir noch einen kleinen Recap geschrieben und würden uns sehr freuen, falls du ihn deiner Liste hinzufügen könntest:

http://deeplinked.org/recap-zur-seo-campixx-2016-post/

    Anita Böhm am 31. März 2016 um 15:48:46

    Hi Lars, gerne doch, hab ich gerade ergänzt in der Liste! Viele Grüße

Mario am 19. April 2016 um 13:44:57

Hallo Anita,

ich habe auch noch ein Recap für Euch:
http://www.online-marketing-tag.de/campixx-week-2016-recap/

;) ich weiß gar nicht, ob man das soooo spät überhaupt noch verdient hat aufgenommen zu werden…

    Anita Böhm am 20. April 2016 um 09:35:03

    Besser spät als nie – habe das Recap mit aufgenommen =)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.