Todesmut

Für jemanden, der sein ganzes Berufsleben lang an den Innereien von Suchmaschinen geschraubt hat (erst bei FAST Search & Transfer ASA, den Machern hinter alltheweb.com, dann bei SEARCHTEQ an suchen.de), ist die ganze SEO-Kiste manchmal schwer nachzuvollziehen: Da werden regelmäßig Kristallkugeln befragt, hinter jedem Augenaufschlag von Matt Cutts wird eine versteckte Botschaft vermutet und Formeln aus den frühen 70ern werden als Frischware verkauft.

Um unsere eigenen SEO-Experten besser zu verstehen, habe ich mich letzte Woche auf der SMX in München getummelt und Wissen aufgesogen.

Während ein Teil der Konferenz meinen finstersten Erwartungen entsprach — das heißt, sich in gekonntem Bauchgepinsel und Veranstaltungen zur Eigenwerbung erschöpfte (nein, ich meine leider nicht die sponsored sessions) — waren andere Vorträge durchaus nützlich.

Hier sind meine Top 11:

Tools

  1. Obwohl ich als Mac-Nutzer benachteiligt bin, begeistert mich das Excel-Add-In von Niels Bosma. Allein die Google Analytics Auswertung ist ungemein nützlich. Die Funktionen zum generellen Website-Scraping und zur Seitenanalyse machen das Add-In vollends zur Mutter aller SEO-Schlagbohrmaschinen. Bitte die automatische Datenaktualisierung für Excel abschalten, damit auch die Kollegen weiter captcha-los auf Google kommen.
  2. Zwar basiert fast jedes SEO-Tool auf einem Crawl der zu analysierenden Webseite, aber mit Screaming Frog kann man auch vom eigenen Rechner aus crawlen, um sich einen schnellen Überblick über Verlinkungsstruktur, nicht erreichbare Seiten, Umleitungen, Titel, Metas und anderes Suchmaschinenfutter zu verschaffen. Das Tool versucht sogar tapfer zu erraten, wie die Google-Snippets für die Seiten aussehen würden. Besonders interessant ist der Bericht zu Weiterleitungsketten.
  3. Es gibt natürlich unzählige Firefox-AddOns zum Thema und der Browser der meisten Vollzeit-SEOs zeigt vor lauter Toolleisten nur noch 10% der dargestellten Webseite, aber wirklich nützlich und wenig aufdringlich ist SeeRobots. Nach der Installation zeigt die Statusleiste jeweils die gesetzten Werte des robots-Metatags und des X-Robots-Headers. Das erspart manchen Blick in den Quelltext oder Firebug.
  4. Vielleicht sollte ich nicht von einem Tool reden, da es sich um Menschen handelt, aber Rapid User Tests ist wirklich ein nützliches - hmm - Werkzeug, um schnell Webseiten-Tests mit echten Nutzern aufzusetzen. Falls die Zeit drängt oder das Geld knapp ist, sollte man hierüber auf jeden Fall nachdenken.

Tipps

  1. Bei Seiten, die Nutzer gleich wieder verlassen (Bounce), misst Google Analytics normalerweise nicht die Aufenthaltsdauer. Dadurch ist nicht festzustellen, ob die Seite einfach doof ist und sofort weggeklickt wird oder ob der Nutzer sich hier für Stunden festliest und dann seinen Computer ausschaltet. Indem man ein GA-Event nach einem vordefinierten Timeout feuert, kann man die Seite als Nicht-Bounce in Analytics markieren und außerdem feststellen, wie viel Zeit der Nutzer mindestens hier vergammelt hat. Das genaue Vorgehen ist z.B. in diesem Artikel von 2012 beschrieben, aber es muss ja nicht immer alles brandneu sein.
  2. Bei Google AdWords Kampagnen bietet eine lokale Beschränkung durch Opt-Out wohl bessere Kondition als eine durch Opt-In. D.h. eine Kampagne erzeugt niedrigere Kosten bei gleichem Erfolg, wenn sie auf Bayern beschränkt und dann alle Städte außer München ausgeschlossen werden (Opt-Out), als wenn man von vornherein auf München beschränkt. Klingt bescheuert und ist im Einzelfall noch zu verifizieren. Wie Rich Little in Futurama sagt: „Interesting, if true.”
  3. Im Titel des Google Local Profils darf zusätzlich zum Firmennamen noch ein beschreibender Begriff aufgenommen werden, der nicht direkt zum Namen gehört. Da ich zur Übertreibung neige, habe ich bei uns gleich mal drei Wörter reingequetscht. Das sieht zwar jetzt bescheiden aus, wurde aber freigegeben.

Takeaways

  1. Die SEO-Glaskugel sagt, dass die Zeit, die ich auf Google+ verschwende, gut angelegt ist. Google+ ist die billigste Art, gut gerankt zu werden, weil meine armen Einkreiser meine irrelevanten Posts in ihre SERPs gepusht bekommen. Das wusste ich tatsächlich schon, wenn searchgears jetzt auch noch Einkreiser hätte, wäre alles in Butter.
  2. Google+ benutzt intern nofollow-Links (zumindest zum großen Teil), d.h., einen Einfluss auf das Ranking darf man sich durch verlinkte Posts nicht erhoffen. Das finde ich naheliegend, weil die Idee hinter Google+ wohl tatsächlich nicht war, das größte Webspam-Tool der Welt zu erschaffen.
  3. Das Ranking der Google Places hängt vom Abstand zur größten Ansammlung von Treffern (für das Suchwort?) in einer Stadt ab. Ich habe das noch nicht nachgeprüft, fände es aber gut, da das Ranking nach Abstand zur Stadtmitte in den wenigsten Fällen weiterhilft.
  4. YouTube wiederum rankt eher nach Interaktion als nach Aufrufzahl. Das heißt, wenn meine fünfzehn Kumpels mein Video fleißig kommentieren, nützt das mehr, als wenn 1000 andere Leute es anschauen.

Obwohl ich noch ein paar weitere nützliche Fakten in meinen SMX-Aufzeichnungen habe, halte ich mich an die goldene SEO-Regel, Blog-Posts nicht zu lang zu machen, aber auch nicht zu kurz und bitte mit der richtigen WDF * P * IDF und nicht vergessen, dass die geschalteten AdWords auch im Text vorkommen und in den Meta-Keywords, aber die verwendet eh keiner mehr und wenn morgen Matt Cutts hustet, ist sowieso alles vorbei.

Share: