SEOkomm 2015 – SEO zwischen Anspruch und Wirklichkeit

Ticket SEOkomm 2015

Das Jahr 2015 neigt sich dem Ende zu und es kommt die Zeit der Rückblicke und Bestandsaufnahmen. Die SEOkomm kommt da natürlich sehr gelegen. Die Agenda veranschaulichte bereits deutlich was sich in den letzten (SEO-) Jahren getan hat – oder auch nicht: Das Themenspektrum wird deutlich breiter, das Publikum verändert sich aber manches bleibt doch beim alten.

Rise of the Machines – Der Anspruch

Die Keynote mit dem Titel „Rise of the Machines“ von Marcus Tandler war wieder mal ein spannender Einblick in das Universum der Suche und zeigte deutlich die Diversifikation der Suchsysteme und die Arten wie gesucht (werden) wird. Zwar wird die Google Suche immer mehr zur selbstlernenden Maschine, allerdings ist nach wie vor die Hilfe von Menschen nötig um den Algorithmus zu verbessern. Oder von Links wie der Google-Mitarbeiter John Mueller später in seiner Session bestätigen sollte, wie gesagt: manches bleibt auch beim alten.

Jedenfalls bekommt Google immer mehr ein Monetarisierungsproblem: Wie sich das bemerkbar macht sieht man deutlich an den immer stärker präsenten Adwords auf den Suchergebnisseiten welche die organischen Treffer teilweise fast vollständig aus dem sichtbaren Bereich verdrängen. Das transaktionsorientierte Suchanfragen immer häufiger bei Amazon anstatt bei Google getätigt werden verstärkt diese Problematik für Google.

Durch den Mobile-Trend versucht Google die Katen allerdings neu zu mischen und versucht sein Monopol als Suchanbieter zu seinen Gunsten auszuspielen. Das „Verbot“ von App Download Interstitials auf mobilen Webseiten deutet jedenfalls darauf hin dass Google die User möglichst im Bowser (und damit im am besten monetarisierbaren und durchsuchbaren Bereich) halten möchte.

Mit Accelerated Mobile Pages (AMP) versucht Google dagegen den Kampf um Inhalte gegen Facebook und Appe zu gewinnen und die User im eigenen Ecosystem zu halten. Hier kann sich neues SEO Potential auftun. Es besteht aber die Gefahr dass neben Facebook ein weiteres mehr oder weniger in sich geschlossenes Web entsteht. Mehr Informationen bei searchenginewatch.com

Am Ende der Keynote stand aber dann doch die Megasage Don´t Panic. Konzentriere dich auf das was den User glücklich macht und nicht die Maschine:

  • Versuche möglichst viele Page Impressions zu erzeugen
  • Optimiere deine CTR
  • Achte auch eine hohe Interaktion auf deiner Website
  • Verbessere die Ladezeit
  • Erhöhe die Anzahl an Stammbesuchern auf deiner Website um die Wiederkehrrate zu verbessern

Update:
Den Vortrag „Rise of the Machines“ von Mediadonis auf der W-Jax Konferenz gibt es nun bei Vimeo:

Rise of the Machines from JAX TV on Vimeo.

Big in SEO: Millionen und Abermillionen Seiten optimieren

Nach den spannenden Ausblicken aus der Keynote wurde es etwas praktischer und man konnte sich ein Bild vom aktuellen Status Quo im Bereich SEO machen. Der Vortrag „Big in SEO“ von Dominik Wojcik zeigte welche Vorbereitungen und Maßnahmen getroffen werden sollten, wenn es darum geht mit sehr Großen Seiten in den SERPs zu bestehen:

  • Daseinsberechtigung des Projekts hinterfragen
  • Wettbewerb prüfen
  • Flache Seitenarchitektur (3 Ebenen)
  • Cluster bilden und Titles, Descriptions und Headlines entsprechend anpassen und Defaults als Fallback geschaffen werden
  • Die Verwendung von Schema.org bietet sich auch für sehr große Seiten an
  • Interne Verlinkung auf die Cash Cows optimieren
  • Sinnlose Seiten löschen
  • Backlinks nicht außer Acht lassen
  • Sitemaps verwenden, aber möglichst granular um den Indexierungsstatus besser einschätzen zu können und die Maximalgröße von 50.000 URLs nicht zu überschreiten
  • Logfiles im Auge behalten
  • Crawlbudget verwalten (Robots.txt nutzen)

Meiner Meinung nach ein sehr vollständiger Überblick an Themen mit denen man sich als SEO einer sehr großen Seite auseinandersetzen sollte.

Crawl Budget Best Practices

Perfekt daran angeknüpft (lieder nicht zeitlich) und mein persönliches Highlight war die Session von Jan Hendrik Merlin Jacob zum Thema Crawl Budget. Sehr technischer deep dive mit spannenden Anregungen die über das bloße verwenden der Robots.txt hinausgehen:

  • Die Anzahl der gecrawlten URLs hängt maßgeblich mit der Ladezeit der Seite zusammen. Durch kleine Verbesserungen beim Page Speed kann erreicht werden dass wesentlich mehr URLs gecrawlt werden.
  • Flache Seitenstruktur unterstützt das Crawling
  • Je höher der PageRank desto häufiger wird eine Seite gecrawlt
  • Auch Seiten die häufig aktualisiert werden crawlt Google öfter
  • Ajax kann sich negativ auf das Crawling auswirken – wenn durch die Verwendung mehrfache Abfragen notwendig werden
  • Auch hier die Empfehlung: Weg mit unnötigem (thin Content) Ballast
  • Durch die Verwendung des „if-modified-since“ kann Google vermittelt werden dass sich die Seite seit dem letzten Crawl nicht geändert und und des nicht erneut geprüft werden muss (Statuscode 304)
  • CSS und Javascript sollte nicht durch die Robots.txt blockiert werden (empfiehlt Google schon länger)
  • Die Alternates und Canonicals sollte man im Griff haben, will man nicht unnötig Budget verschwenden
  • Immer den Zeichensatz angeben und interne Weiterleitungen vermieden
  • Bei Seiten die mehr als ein 1MB groß sind besteht die Gefahr dass sie nicht vollständig gecrawlt werden
  • Über die Verwendung eines statischen CMS nachdenken (z.B. getkirby.com)

Es lohnt sich auf jeden Fall mal einen Blick auf die Folien zu werfen. Der Gute war sich auch im Nachgang nicht zu schade im persönlichen Gespräch das ein oder andere Crawling Problem unter die Lupe zu nehmen.

Google antwortet – Johannes Müller am heißen Stuhl

Im Anschluss stellte sich Johannes Müller von Google den zahlreichen Fragen der Publikums. Neben amüsanten Fragen wie „Dürfen Google Mitarbeiter iPhones besitzen?“ waren analog der bekannten Hangouts wieder viele Fragen dabei die mit dem fast schon obligatorischen „es kommt darauf an“ beantwortet wurden. Was hängen blieb:

  • Auch hier Thema Ajax Crawling: Das Sperren von Dateien welche für die vollständige Darstellung der Seite nötig sind kann im schlimmsten Fall als Cloaking ausgelegt werden. Da einige im Publikum immer wieder Probleme mit dem Crawling von Ajax Seiten haben sollte man die betroffenen Seiten in der Search Console via Fetch as Googlebot überprüfen.
  • Die Meta Description ist nach wie vor kein Rankingfaktor und wird wie der Title ab und zu von Google überschrieben um die Suchanfrage besser im Snippet abbilden zu können. Das kann vom Webmaster nicht verhindert werden.
  • Wird ein User via Accept-Language-HTTP-Header auf eine Sprachversion umgeleitet sollte die mit einer Weiterleitung mit dem Statuscode 302 erfolgen, da der Bot aus den USA kommt und sonst die anderen Sprachen nicht zu Gesicht bekommt (Anmerkung: das habe ich leider schon anders erlebt).
  • Der mobile Index ist nach wie vor nicht als solcher existent, aber mobile Seiten sind im Index als solche gekenntzeichnet.
  • Links werden nach wie vor in die Berechnung des Rankings einbezogen.
  • Es sollten keine ganzen Seiten mit dem Google Translator übersetzt werden. Das kann zu einer Abstrafung führen.

Was gab es sonst noch?

SEO Controling

Häufig etwas stiefmütterlich behandelt wird das Thema Monitoring, Rerporting und Wettbewerbsanalyse, kurz Controling im SEO. Jens Fauldrath hat die wichtigsten Punkte herausgearbeitet:

  • Stellt erst mal sicher dass ihr Handlungsfähig seid und die Erkenntnisse aus dem Monitoring auch umsetzen könnt.
  • Stellt sicher dass ihr eine großen, validen Datenbasis habt auf die Ihr eure Analysen stützen könnt. Ansonsten: schafft erst mal diese Basis.
  • Die Search Console ist die wichtigste Anlaufstelle in Sachen Monitoring
  • Durch das Anlegen von Unterverzeichnissen in der Search Console kann die Datenmenge signifikant erhöht werden
  • Alerts in Google Analytics informieren frühzeitig über Unregelmäßigkeiten
  • In einem Reporting sollte keine Fachsprache auftauchen und die Zeit der Vorgesetzten sollte auch nicht überstrapaziert werden. Konzentriert euch auf das wesentliche, Rankings interessieren den Chef nicht.
  • Begründungen mitliefern für den Fall dass man vom Plan abweicht
  • Darauf achten dass man sich durch das Reporting nicht im Handlungsspielraum einschränkt
  • In der Wettbewerbsanalyse sollten keine Äpfel mit Birnen verglichen werden. Einen Vollsortimenter mit einem Nischenshop zu vergleichen macht keinen Sinn.
  • Deshalb: Die Analyse auf die betreffenden Verzeichnisse herunter brechen.
  • Prüfen: Was sind die Sichtbarkeitstreiber und Templates vergleichen.
  • Immer daran denken: Ihr seid das Brain – nicht das Tool.

Digitale Geschichten über Lippenstift, Duschgel und Co.

Ein Vortrag über Content Marketing bei DM. Content Marketing hat bei DM eine lange Tradition und wird auch offline in Form eines Kundenmagazins gelebt. Es gibt eine starke Vernetzung der einzelnen Kanäle, Content Kampagnen werden so auch im Shop, in sozialen Netzwerken und im Kundenmagazin gespielt. Da die Frage im Anschluss nach den Zielen und KPI (verständlicherweise) nicht eindeutig beantwortet werden konnte blieb das wichtigste Learning leider aus.

Keywordskalierung – Der Hebel für das SEO Wachstum deines Online Shops

In dieser Session wurden einige Methoden vorgestellt um einer Stagnation im SEO-Traffic zu entgehen:

  • Filter für Suchmaschinen öffnen (aber nicht ohne sich vorher sich im Klaren zu sein was man da tut – Stichwort Crawl Budget)
  • Landingpages für Synonyme in den Shop integrieren – ohne eine Parallelwelt für SEO zu erschaffen
  • Texte auf Kategorieseiten erweitern das Set an Keywords einer Seite deutlich, was sich auch in der Anzahl der Rankings widerspiegelt
  • Mit einem Magazin können auch User abgeholt werden, die erst am Anfang des Kaufprozesses stehen.

Screaming Frog Tricks, die du noch nicht kanntest

Als Heavy User von Screaming Frog war ich sehr gespannt und wurde nicht enttäuscht, Es waren in der Tat ein paar spannende Ansätze dabei den Frog zu nutzen:

  • Sitemap Crawlen
  • Indexierungsstatus prüfen
  • Die Möglichkeiten via Xpath zu scrapen sind nahezu grenzenlos

Fazit

SEO durchlebt nach wie vor eine Metamorphose. Der Anspruch an modernes, nachhaltiges SEO wie es in der Keynote vorgestellt wurde, kann aktuell nur bedingt umgesetzt werden. Nach wie vor müssen der Suchmaschine Signale in Form von Keywords, Content und auch Links gesendet werden. Wirft man einen Blick auf die KPI auf die mittlerweile optimiert wird lässt sich allerdings ein deutlicher Wandel erkennen. Usersignale und Umsätze sind heute präsenter als Domainpopularität oder Rankings.

Die Vielfältigkeit der Themen (Mobile, Neue Suchsysteme, Technik/Crawlability, Backlinks, Content, Local, Controling…) die SEO aktuell beherrschen zeigen dass sich viel tut in der Branche und man gespannt sein darf was sich 2016 tut.

Weitere Recaps

VN:F [1.9.22_1171]
Rating: 5.0/5 (4 votes cast)
SEOkomm 2015 - SEO zwischen Anspruch und Wirklichkeit, 5.0 out of 5 based on 4 ratings

4 Gedanken zu „SEOkomm 2015 – SEO zwischen Anspruch und Wirklichkeit

  1. Pingback: SEOkomm 2015 Recap

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *