SMX München 2016 – Recap

Wenn die SMX in München ruft, ist das für viele Online Marketer ein Pflichttermin. Das liegt neben dem breiten Themenspektrum sicher auch an den internationalen Speakern, die man sonst in Deutschland kaum zu Gesicht bekommt. Thematisch war die SMX für mich ein Abbild der aktuellen Entwicklung im Bereich SEO. Während Linkbuilding auf der Agenda nur noch eine Nebenrolle einnimmt, sind mit dem technischen SEO und Content zwei Themen aktuell, die völlig unterschiedliche Herangehensweisen erfordern und so die Branche für neue Leute öffnen.

In diesem Rückblick möchte ich nicht auf jede einzelne Session chronologisch eingehen, sondern darstellen welche Themen für mich in diesem Jahr besonders spannend waren.

Rank Brain & Machine Learning

In der Keynote und im „Webmasters on the Roof“ Panel konnte man einen guten Einblick in die aktuellen Entwicklungen im Bereich SEO gewinnen. Das Thema Rank Brain und Machine Learning werden uns noch eine ganze Weile beschäftigen. So scheint Rank Brain in der Lage zu sein, die Rankingfaktoren je nach Suchanfrage anders zu gewichten. Für Marketer wird es ab sofort also noch wichtiger, die Absichten des Users zu verstehen, mit reiner Authorität kommt man mittlerweile nicht mehr weit.

So scheinen die Suchergebnisse wieder eindimensionaler zu werden. Marcus Tober beschrieb wie er bei der Suchanfrage „Security Kamera“ 9 Online Shops auf der ersten Seite zu sehen bekam. Hier scheint Google davon auszugehen, dass das Kaufinteresse bei dieser Suchanfrage so hoch ist, dass fast ausschließlich Shop gerankt werden. Rand Fiskin beschrieb ein ähnliches Beispiel für Suchanfragen in den USA.

In Zukunft wird es also entscheidend sein, nicht nur mit gutem Content zur Stelle zu sein, sondern auch dem User Intent gerecht zu werden. Eine informative Webseite wird es also für transaktionale Begriffe in Zukunft noch schwerer haben.

Branding

Eines der größten Potentiale im SEO ist nach wie vor, so waren sich alle einig, das Branding. So hat Tripadvisor 2014 in einer TV Werbung indirekt dazu aufgefordert Tripadvisor + Stadtnamen in die Suche (offensichtlich Google) einzugeben:

Die Erhöhung der Brand + Keyword Suchanfragen kann schlussendlich dazuführen, dass auch für den Short Head bessere Rankings erzielt werden können. Denn wenn „Tripadvisor Rom“ gute User Signale liefert, liegt es nahe, die Website auch für ähnliche, generische Suchanfragen zu ranken.

Content

Content ist nach wie vor einer der großen Hebel für SEO. So fanden sich in diesem Jahr zahlreiche Vorträge zu Themen wie Erfolgsmessung, Republishing oder Content im eCommerce auf der Agenda wieder.

Allgemein ist festzustellen, dass das Bewusstsein für Content in den letzten Jahren stark geschärft wurde. Auch für Online Shops nimmt Content mittlerweile strategische Bedeutung ein. Der reine SEO Text scheint jedoch endgültig an Bedeutung verloren zu haben – nur Content der es schafft den User zu inspirieren, zu beraten oder sein Problem zu lösen hat eine Daseinsberechtigung. Marcel Kollmar skizzierte in seinem Vortrag vier Schritte für erfolgreichen Content im eCommerce:

  1. Strategie ausarbeiten
  2. Ziele definieren
  3. Bedarf ermitteln
  4. Holistische Ansätze verfolgen

Um Kanibalisierungen zu vermeiden und für maximalen Erfolg zu sorgen, haben sich die Bereiche Content Marketing und Branding auch bei Zalando stark angenähert. Nachdem in der Vergangenheit oft aneinander vorbei gearbeitet wurde, wird nun in einem gemeinsamen Kommunikationsplan gearbeitet, um sich kanalübergreifend auf Themen fokussieren zu können.

Content Republishiung

Wie auch beim Vortrag Content Republishiung deutlich wurde, spielt die Content Promotion eine immer wichtigere Rolle, um in Zeiten des „Content Shocks“ Aufmerksamheit erregen zu können. Nur Content, der die User wirklich beigestert und so entsprechendes Engagement hervorruft, hat eine Chance auf Erfolg.

In Sachen Content Promotion scheinen auch heute noch Links ein probates Mittel zu sein, um überhaupt die Chance auf Traffic zu bekommen, anhand dem man sich dann beweisen kann ob man diesen zurecht bekommen hat.

Um auch aus älteren Content das maximale herauszuholen, präsentierte Rand Fishkin vier Taktiken:

  1. Content immer wieder updaten (Bsp: MOZ Ranking Factor Studie)
  2. Auf regionale Eigenschaften und Potentiale eingehen (Bsp: Airbnb neighborhood guide)
  3. Auf datenbasierten Content setzen (Bsp: Moz Cast)
  4. Content auch auf Publisher Sites veröffentlichen (mit Canonical auf die eigene Domain)

Keine Ausreden

Marcus Tandler hatte zuvor bereits an zwei Beispielen veranschaulicht, wie Content (auch nachträglich) für den User optimiert werden kann:

  • Sorge für eine gute User Experience
  • Mach deine Seite schnell
  • Optimiere deine CTR
  • Keine handwerklichen Fehler wie broken Links
  • Lasse keine Ausreden zu

Schließlich sei jeder Seitenaufruf eine Wahl des Users. Die Macht des Klicks wurde auch in einem Experiment verdeutlicht: So wurden die Zuhörer der Session von Rand Fishkin aufgefordert nach „Marcus Tandler SEO“ zu suchen und auf das Ergebnis von Onpage.org auf Platz 6 zu klicken. In einer späteren Session konnte gezeigt werden, dass sich allein durch diese Klicks das Ranking von Onpage.org auf Platz 2 dramatisch verbessert hat.

Content Performance messen

Daran wie der Erfolg von Content beurteilt wird, scheiden sich immer noch häufig die Geister. Dave Sottimano empfahl das Verhalten der User auf der Seite möglichst genau zu beobachten. Und beispielsweise mit dem Analytics Plugin Scroll Depth zu messen, wie weit die User auf einer Seite scrollen. Seine Auswertungen haben ergeben, dass nur 50% der User überhaupt scrollen, was dazu führt, dass der Content nicht richtig wahrgenommen wird und so als nicht funktionierend beurteilt wird.

Auch ist es wichtig zu messen, ob Content überhaupt dem User angezeigt wird und nicht (beispielsweise in einem neuen Tab) unsichtbar beibt. Es sollten also auch Interaktionen wie das Markieren von Text ausgewertet werden.

Häufige Ursachen für nicht funktionierenden Content sind:

  • Kein/schlechter CTA
  • Kein/zu wenig Traffic
  • Technische Unzulänglichkeiten

Beim Thema Attribution von Contentseiten empfahl Sottimano auf ein Last Click Modell zu verzichten und stattdessen mit linearen Modellen zu experimentieren. Als wichtigste Kennzahlen wurden folgende genannt:

  1. Page Views
  2. Visable Page Views
  3. Engagement
  4. Read Rate
  5. Returning Visitors

Technisches SEO

Neben Content war auch das technische SEO ein Schwerpunkt auf der SMX. Allen voran wurde das Thema Ressourcenoptimierung behandelt. Sowohl aus der Sicht von Google als auch vom Seitenbetreiber selbst.

Als Herausforderungen wurden in verschiedenen Panels immer wieder Sortierungen, Facetten und auch die Paginierung genannt. Durch technische Unzulänglichkeiten werden so häufig mehr URLs erzeugt, gecrawlt und letztendlich auch indexiert als notwendig sei. Sowohl die Steuerung des Crawlings als auch die Verwendungs des Canonicals sind lediglich Workarounds, die eine gute Seitenarchitektur nicht ersetzen können.

Wärend bei einer Sperrung durch die Robots.txt externe Signale wie Backlinks verloren gehen können, geht die Verwendung das Canonical Tags auf das Crawlbudget und wird von Google nicht immer korrekt interpretiert. Als Lösungen wurden Ajax und HTML pushState genannt um das Crawling zu steuern.

Philipp Klöckner veranschaulichte die Herausforderung für Google einen relevanten, vollständigen und aktuellen Index zu verwalten, denn das Crawling kostet Google eine Menge Geld. Das führt dazu, dass das Crawlbudget für eine Seite durch verschiedene Faktoren beeinflusst wird:

  • PageRank
  • Aktualität
  • Ladezeit
  • Relevanz

Webmaster sollten deshalb darauf achten, dass nur die Seiten gecrawlt werden, die auch tatsächlich indexiert werden sollen. Priorisiert werden kann hier nach dem Pareto-Prinzip (80/20 Regel). Zusätzlich sollte man sich auf Faktoren einigen, die festlegen wann eine Seite indexiert werden darf und wann nicht.

Bastian Grimm erläuterte noch einmal den Unterschied zwischen Indexierung und Crawling. Denn: Ein Ausschluss vom Crawling verhindert nicht die Indexierung – was umgekehrt genauso gilt.

Indexierte Seiten: Weniger ist mehr

Am Beispiel Wimdu vs. Airbnb wurde demonstriert, dass man auch mit weniger Seiten im Index wesentlich mehr Sichtbarkeit erreichen kann. Während Wimdu mit lediglich 6.100 indexierten Seiten auf eine Sistrix Sichtbarkeit von über 45 Punkten kommt, schafft Airbnb es mit über 7 Millionen lediglich auf knapp 13 Punkte.

Was sollte also aus dem Index verbannt werden?

Generell sollte man auf eine ordentliche Seitenhygiene großen Wert legen. Das bedeutet: Keine Links auf 404-Seiten, keine Links auf Weiterleitungen, keine Weiterleitungsketten verursachen und die Sitemap auf Seiten mit dem Statuscode 200 beschränken.

Im Falle einer Faceted Navigation wurde die Verwendung des PRG-Pattern empfohlen (umfangreicher Artikel dazu auf catbirdseat.de). Nicht im Index befinden sollten sich:

  • Leere Kategorieseiten
  • Kategorieseiten mit einer geringen Anzahl an Produkten
  • Produktseiten ausverkaufter Artikel
  • Duplikate

Auch wurde zur Diskussion gestellt, Produktseiten generell aus dem Index zu verbannen und zu versuchen den Long Tail Traffic über vollständigere Kategorieseiten zu generieren.

Um einen Überblick über die indexierten Seiten einer Domain zu behalten, sollte man seine Logfiles überwachen und sich für kritische Parameter einen Alert bei Google für die entsprechende Siteabfrage einrichten.

Mobile

Während Google am Abend vor der SMX das nächste Mobile Update ankündigte, ging es tags darauf inhaltlich vor allem um Neuentwicklungen wie Accelerated Mobile Pages (AMP) und App Indexierung. Eine funkionierende mobile/respronsive Website wird mittlerweile vorausgesetzt.

Seit einigen Tagen sind die AMP auch in Deutschland angekommen. In den Vorträgen von Cindy Krum und Dominic Woodman wurde das Projekt noch einmal detailliert vorgestellt und betont, dass momentan Seiten am meisten von AMP profitieren die stark im News-Bereich unterwegs sind. Eine Ausweitung des Projekts auf andere Bereiche sei jedoch bereits in Planung.

Während die großen CMS wie Drupal, Joomla und WordPress AMP bereits unterstützen, müssen für andere Systeme AMP-konforme Templates eigens entwickelt werden. Cindy Krum betonte jedoch, dass eine optimal programmierte mobile Website einer AMP-Seite in Sachen Pagespeed in nichts nachstehen muss.

Bevor man sich für die Verwendung von AMP entscheidet, sollte man sich einen Überblick über die unterstützten Werbenetzwerke machen. Momentan lauten diese wie folgt:

  • A9
  • Adform
  • AdReactor
  • AdSense
  • AdTech
  • Dot and Media

Auch beim Tracking werden noch nicht alle Systeme unterstützt.

Fazit

Die Zeiten der Golden Nuggets auf Konferenzen („30 Links in 30 Minuten“) scheint endgültig vorbei zu sein. In Anbetracht dessen wie breit die Themen im Search Marketing im Allgemeinen und SEO im Speziellen mittlerweile sind, auch irgendwo logisch. Stattdessen bekommt man einen schnellen und fundierten Überblick über Techniken, Trends und Strategien außerhalb des eigenen Unternehmens.

Was davon für einen selbst relevant und umsetzbar ist, muss jeder für sich selbst entscheiden und sich im Anschluss das nötige Know How erarbeiten.

Weitere Recaps

VN:F [1.9.22_1171]
Rating: 5.0/5 (4 votes cast)
SMX München 2016 - Recap, 5.0 out of 5 based on 4 ratings

4 Gedanken zu „SMX München 2016 – Recap

  1. Die Zeiten sind definitiv dabei, weil jetzt die Unternehmen mit den dicksten Budgets mit großer Wucht nach vorne preschen und da bringt es dir absolut gar nichts, wenn du jahrelang tolle Arbeit in deiner Nische geleistet hast. Viel schlimmer noch: der Traffic den Du einst über Google auf den ersten Seiten abgegriffen hast, wandert jetzt zu den ganzen Spezialsuchmaschinen und das macht es definitiv nicht einfacher.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.