Buchvorstellung: Suchmaschinenoptimierung: Das umfassende Handbuch: Aktuell zu Google Panda und Penguin

Erlhofer Suchmaschinenoptimierung

Gibt man bei Amazon in der Büchersuche das Schlüsselwort „SEO“ ein, werden einem aktuell fast 400 Treffer präsentiert. Das zeigt bereits, welchen Stellenwert SEO heutzutage im Online Marketing Mix eingenommen hat. Gute und umfassende Grundlagenbücher zum Thema Suchmaschinenoptimierung sind allerdings rar gesät. Zu diesen gehört mit Sicherheit auch das voluminöse Standardwerk „Suchmaschinenoptimierung: Das umfassende Handbuch“ von Sebastian Erlhofer, das im Oktober 2012 bereits in der sechsten Auflage erschienen ist. Nachfolgend soll ein kurzer Überblick über die Inhalte der einzelnen Kapitel des 734 Seiten starken Buches gegeben werden:

Kapitel 1: Die Welt der Suchmaschinen-Optimierung

Hier erfährt der Leser etwas über Grundlagen von Suchmaschinen und SEO, einige Begriffe werden definiert. Wichtig ist, dass SEO fortlaufend betrieben werden muss und keine einmalige Angelegenheit ist. Es gibt ständig Optimierungs- und Verbesserungspotenzial. Man sollte SEO nicht nebenbei machen und SEO ist nur eine Disziplin im Online Marketing. Neben SEO gehören die Bereiche bezahlte Suchmaschinenwerbung, Conversion Rate Optimierung , Social Media Marketing und der immer wichtiger werdende Bereich Usability zu den wichtigsten Bereichen, diese sollte alle gut aufeinander abgestimmt sein, nur so kann ein Projekt auch im Internet erfolgreich sein. Es nützt nichts, wenn jeder Bereich abgetrennt vom anderen vor sich hinarbeitet.

Kapitel 2: Rahmenbedingungen einer Optimierung

Das Wichtigste bei der Suchmaschinenoptimierung ist, sich im Vorfeld genau zu überlegen, was man überhaupt erreichen möchte. Da kein Projekt dem anderen gleicht, gibt es kein Patenrezept, um eine Webseite zum Ranken zu bringen. Die wichtigsten Fragen sind: Wen möchte man ansprechen und wie möchte man sein Projekt über die Suchmaschinen vermarkten? Ebenso sollte die Wahl eines Keyword-Sets, das man bei Google & Co. pushen will, zu Beginn gut durchdacht sein.  Diese Keywords sollten mit gängigen SEO Tools wie beispielsweise Sistrix oder Xovi überwacht werden, um Erfolge oder Misserfolge zu messen.

Kapitel 3: Keyword-Recherche

Die Keyword-Recherche sollte vor Beginn der Texterstellung erfolgen, hierbei muss man sich in die Lage der Suchenden versetzen. Dabei hilft vor allem das AdWords Keyword Tool von Google.  Die Schlüsselwort-Suche ist jedoch keine einmalige Angelegenheit,  das Keywordset muss ständig ergänzt und erweitert werden, da sich auch der Markt permanent verändert.  Wichtige Auswahlkriterien sind nicht nur das Suchvolumen, sondern auch Anzahl und Stärke der Mitbewerber. Zudem sollten zu den ausgesuchten Keywords perfekt optimierte Landingpages erstellt werden. Da viele Begriffe mit hohem Suchvolumen stark umkämpft sind, macht es Sinn, sich seine eigene Nische zu suchen und auf Midtail und Longtail zu setzen, da hier die Konkurrenz kleiner ist. Dabei kann man zum Beispiel Keyworddatenbanken wie Google Suggest oder auch Ebay als Quelle nutzen, der Kreativität sind hier keine Grenzen gesetzt. Ein weiter Punkt, der beachtet werden muss ist, dass einige Keywords sehr regional oder saisonal sind – dies muss bei der Optimierung berücksichtigt werden.

Kapitel 4: Anatomie des World Wide Web

Die Verwendung von Meta Title und Meta Description bei der Suchmaschinenoptimierung ist immer noch sehr wichtig. Meta Keywords wurden sehr lange zu Spam-Zwecken missbraucht, so dass Google diesen keine große Relevanz mehr beimisst.  Das Robots Meta Tag spielt auch eine große Rolle, um den Bots zu sagen, dass etwas nicht indexiert werden soll, bzw. Links nicht verfolgt werden sollen. Allerdings handelt es sich dabei nur um eine Empfehlung. Das Meta Refresh Tag muss vermieden werden, da es in Googles Augen als Unsinn gilt. Ansonsten bietet Kapitel 4 einen sehr ausführlichen Abschnitt über das HTTP- Protokoll.

Kapitel 5: Architektur von Suchmaschinen

Suchmaschinen sind wesentlich komplexer als ein Webkatalog. Sie beherrschen im Gegensatz zum Webkatalog das automatische Sammeln und Auswerten von Webseiten. Die einzelnen Suchmaschinen unterscheiden sich hauptsächlich im Algorithmus und den Suchergebnissen. Die drei wichtigsten Bestandteile einer Suchmaschine sind die Datengewinnung, die Datenanalyse und –verwaltung sowie die Verarbeitung von Suchanfragen. Metasuchmaschinen greifen auf die Ergebnisse anderer Suchmaschinen zurück, daher eignen sie sich besonders bei „kleinen Themen“ ohne viele Treffer.

Kapitel 6: Suchprozess

Zuerst muss die Suchanfrage („Query“) normalisiert werden. Dabei geht es darum, die Suchanfrage in eine sinnvolle Form zubekommen. Anschließend verwendet die Suchmaschine Synonyme für den Suchbegriff, um das Spektrum zu erweitern, dadurch ist die Normalisierung endgültig abgeschlossen und das Matching kann durchgeführt werden.  Schlussendlich werden die Ergebnisse ausgegeben, hier spielt unter anderen die Gewichtung nach IDF und Pagerank noch eine Rolle. Gängige Suchmaschinen beherrschen boolesche Ausdrücke wie z.B. and oder or. Zudem bieten die meisten Suchmaschinen Möglichkeiten auf Domainebene bzw. nach Dateitypen zu filtern.

Kapitel 7: Gewichtung und Relevanz

Um die Relevanz einzelner Seiten zu bestimmen, beziehen sich Suchmaschinen laut Erlhofer immer noch auf die relative Keyworddichte sowie die inverse Dokumenthäufigkeit. Ebenso kommt es auch darauf an, ob das Keyword an zentralen Stellen verwendet wird, zum Beispiel in Überschriften-Tags (H1, H2 etc.) etc. Weitere Rankingfaktoren sind sprechende URLs („speaking URLs“) und die Anzahl der eingehenden Links bzw.  die Domainpopularität. Da die Domainpopularität allerdings sehr oft gefälscht wurde und ein Backlink von einer schwachen Domain nicht mit einem Link von einer starken Domain gleichzusetzen ist, wurde von den Google-Gründern die Pagerank-Berechnung eingeführt. Zusätzlich zum  Pagerank wurden weitere Feinheiten, wie das Hilltop-Prinzip, der Trustrank und die Klickpopularität zur Bewertung herangezogen.

Kapitel 8: Suchmaschinenoptimierte Website-Struktur

Grundlegend für die Suchmaschinenoptimierung ist, gut indexierbare Inhalte zu schaffen, möglichst auf Flash und  Iframes zu verzichten sowie HTML-Fehler zu vermeiden. Zusätzlich können individuelle Fehlerseiten angelegt werden, um die User  auch im Fehlerfall gut zu führen. Auf Session-IDs sollte nach Möglichkeit verzichtet werden. Wenn es nicht anders geht, müssen diese in den Webmaster-Tools ausgeschlossen werden. Laut Erlhofer ist die Domain eine sehr wichtige Ausgangsposition für ein Projekt, der Name sollte sich daher sehr gut überlegt werden. Empfehlenswert ist außerdem, sich weitere thematisch passende Seiten zu sichern und per 301 auf das Hauptprojekt weiterzuleiten. Dateien sind mit einem sinnvollen Namen zu versehen und auch die Dateistruktur sollte wohl durchdacht sein. Die Aktualität von Webseiten spielt im Rahmen des Freshness-Update eine wichtige Rolle bei den Suchergebnissen, daher sollte man alte Beiträge auch einmal überarbeiten. Duplicate Content ist nach wie vor ein sehr großes Problem und muss auf allen Ebenen verhindert werden. Canonical Tags auf sich selbst zu setzen und Parameter in den Webmaster-Tools auszuschließen sind gute kleine Hilfen gegen DC Probleme. Umleitungen sollten idealerweise über die .htaccess-Datei erfolgen, da mit JavaScript und Meta Refresh-Anweisungen oft Betrugsversuche unternommen wurden und Google dies negativ sieht. In Zukunft werden interne Suchfunktionen von Suchmaschinen noch besser verarbeitet werden.

Kapitel 9: Aufnahme in die Suchmaschinen

Es ist nicht möglich, genau für eine Suchmaschine zu optimieren, da man ihren Algorithmus nicht kennt. Bei einigen Suchmaschinen kann man Seiten manuell eintragen, hier trägt man im Optimalfall die Sitemap und die Startseite ein. Heutzutage erfolgt sehr oft eine indirekte Anmeldung bei den Suchmaschinen über Twitter, Facebook und Co. Eine sehr gute Methode, um Seiten bei den gängigen Suchmaschinen bekannt zu machen ist es, eine XML-Sitemap in den Google Webmaster Tools zu hinterlegen. Bei allen großen Suchmaschinen gibt es zudem eine Funktion, um Spam zu melden. Diese Funktion wird jedoch oft dazu genutzt, um Wettbewerber bei Google anzuschwärzen.

Kapitel 10: Onpage-Optimierung

Zu einer guten Onpage-Optimierung gehört der richtige Einsatz des Title Tags. Hier sollte ein aussägekräftiger Seitentitel gewählt werden, da dieser auch in den SERPs erscheint. Die Keyword-Dichte hat je nach Thema der Seite bei 2-3 % zu liegen.  Zudem sind wichtige Begriffe und Keywords in Aufzählungen, Texthervorhebungen und Überschriften unterzubringen. Bei internen Verlinkungen spielt das <a>-Tag eine wichtige Rolle, denn dieses bildet den Namen des Links, welcher von Suchmaschinen mit ausgelesen wird. Man sollte immer bedenken, dass man Texte nicht für Google und Co. schreibt, sondern für menschliche User. Daher sollte man semantische passende Begriffe in den Content integrieren. Allgemein ist der User in den Vordergrund zu rücken und die Seite auch für ihn zu optimieren. Nur wenn ein Nutzer sich auf einer Seite „wohlfühlt“, diese schnell lädt und ihre Inhalte dem entsprechen, was er gesucht hat, dann wird auch die Absprungrate passen.

Kapitel 11: Offpage-Optimierung

Sehr wichtig ist, eine saubere interne Verlinkung zu schaffen und den Linkjuice gezielt auf wichtige Unterseiten zu verteilen. Aber auch Links nach außen sollten vorhanden sein, hier ist vor allem auf themenrelevante Seiten zu verweisen. Neben direktem Linkbuilding sollte außerdem indirektes Linkbuilding angestrebt werden – durch einen Linkbait erhält man oft sehr viele gute Links. Überlegen Sie sich nach dem Kakadu-Prinzip eine kreative Idee! Gerade aktives Linkbuilding ist sehr schwierig und zeitaufwändig, es müssen viele Details wie Linkwachstum, Linktyp, Linkherkunft, usw. bedacht werden, um ein natürliches Backlinkprofil zu erzeugen. Obwohl das Buch schon älter ist, wird darauf hingewiesen, auf Seiten zu verzichten, die ausschließlich für den Linktausch erstellt wurden.

Kapitel 12: Universal-Search-Optimierung

Neben reinen Textergebnissen spielen bei Google und Co. vor allem Bilder, Videos, Nachrichten und Bücher eine große Rolle (Blended Search). Für lokale Suchergebnisse lohnt sich ein Eintrag bei Google Maps bzw. Places. Gerade bei Bildern kann man einige Optimierungen vornehmen, um diese in der Bildersuche zum Ranken zu bringen. Großes Potential, um das eigene Ergebnis in den SERPs hervorzuheben, bilden beispielsweise Rich Snippets.

Kapitel 13: Spam

Suchmaschinen ragieren auf Betrugsversuche und Spam allergisch, da sie selbst die besten Ergebnisse ausliefern möchten. Die Konsequenzen reichen von einer Abstrafung bis hin zur kompletten Verbannung aus dem Index. Früher war es sehr beliebt, das Hauptkeyword in Title und Description ständig zu wiederholen (Keyword-Stuffing) – das funktioniert jedoch nicht mehr. Noch immer kommt heutzutage Hidden Text zum Einsatz, hierbei  wird mit Hilfe von CSS versucht, einen bestimmten Text nur den Suchmaschinen anzuzeigen. Ebenso verhält es sich beim Link Hiding, nur dass hier die Links für echte User nicht sichtbar sind. Auch Doorway Pages wurden einst oft eingesetzt, um den Suchmaschinen etwas „vorzumachen“: ein sehr bekanntes Beispiel ist zum Beispiel BMW. Der Automobilkonzern wurde wegen Brückenseiten von Google abgestraft. Eine ähnliche Methode wie Doorway Pages ist Cloaking, hier wird Suchmaschinen ebenfalls eine andere Seite angezeigt – dies geschieht hier jedoch durch Ausschluss der IP-Adressen. Eine andere, sogar strafbare Methode ist das Page-Jacking. Hierbei wird versucht, über Schwachstellen im System auf die Seite des Konkurrenten zu  kommen und diese anschließend auf die eigene Seite weiterzuleiten oder ähnliches.

Kapitel 14: Monitoring, Controlling und Tracking

Da Suchmaschinenoptimierung keine einmalige Sache ist, sollte man die eigenen Optimierungsmaßnahmen ständig überprüfen.  Die Servergeschwindigkeit ist kontinuierlich zu beobachten. Mittlerweile steht mit den Google Webmaster Tools (GWMT) ein sehr mächtiges Werkzeug zur Verfügung, um seine Website permanent im Blick zu behalten. Mithilfe der GWMT kann man von der robots.txt, sitemap.xml bis hin zu Click-Through-Raten alles mögliche kontrollieren. Ein weiterer wichtiger Punkt für Webmaster ist die Analyse der Besucherdaten, hier lässt sich einiges über die eigenen Besucher und deren Verhalten aussagen. Eines der besten Werkzeuge ist die kostenlose Version von Google Analytics. Analytics lässt sich auch mit AdWords verknüpfen, somit können noch weitere Daten erfasst werden. Zudem sollte man auch immer seine Rankings mit entsprechenden Tools überwachen, eine manuelle Abfrage der Rankings funktioniert nicht immer korrekt und ist sehr zeitaufwändig.

Kapitel 15: Google – Gerüchte, Theorien und Fakten

Da sich Google mit Information über den Suchalgorithmus sehr bedeckt hält, gibt es in der Szene immer sehr viele Gerüchte und Diskussionen über einzelne Rankingfaktoren. Neben guten Erklärungen zu den einzelnen Google Updates, welche im Laufe der Zeit gelauncht wurden, steht vor allem das Thema Sandbox im Mittelpunkt und wie man eine mögliche Verbannung in die Sandbox am besten umgeht, bzw. wieder aus ihr herauskommt. Auch wenn man sich eine neue Domain zulegt, sollte man darauf achten, ob sie bereits expired ist und evtl. abgestraft wurde. Zudem ist gerade bei neuen Domains im Bereich Linkaufbau Vorsicht zu wahren.

Kapitel 16 Usability und Suchmaschinenoptimierung

Da man nicht nur für Suchmaschinen optimiert, spielt die Usability eine immer größere Rolle. Alleine die Tatsache, dass die Conversion-Rate sehr stark von einer guten Usability abhängt, zeigt, dass man hier viel Zeit investieren sollte. Da Suchmaschinen allerdings genauso auf die User achten, optimiert man bei genauer Überlegung sowohl für Suchmaschinen als auch die Usability für die User, denn auch User wollen gegliederte Überschriften, sinnvolle Seitentitel eine HTML Sitemap und beschreibende Ankertexte. Weitere wichtige Usability-Aspekte sind die schnelle Erschließbarkeit einer Website und eine gute Lesbarkeit der Texte. Um eine Webseite für User zu optimieren, sollte man immer versuchen, sich in sie hineinzudenken.

Kapitel 17 Optimierung umsetzen: TYPO3, WordPress und E-Shops

Auch bei privaten Internetnutzern steigt die Beliebtheit von Content Management Systemen. Bei einigen kommerziellen CMS müssen allerdings SEO-Module extra hinzugekauft werden, was sich negativ auf den ROI auswirkt. Bei Typo3 besteht kostenlos die Möglichkeit, suchmaschinenfreundlichen zu arbeiten, allerdings ist dieses CMS nicht wirklich auf SEO hin optimiert. Auch Weblogs waren ursprünglich nicht dafür gedacht, um in Suchmaschinen möglichst weit oben zu stehen, allerdings ist die Verbreitung von WordPress so stark vorangeschritten, dass es hier mittlerweile sehr viele praktische Plugins zur Suchmaschinenoptimierung gibt. Am schwierigsten gestaltet sich SEO bei Shop Systemen, hier gibt es noch nicht sehr viele helfende Plugins.

Fazit

Das Buch „Suchmaschinenoptimierung: Das umfassende Handbuch“ von Sebastian Erlhofer ist ein gutes Einstiegsbuch in die Welt der Suchmaschinenoptimierung. Neben einigen technischen Aspekten der Suchmaschinen geht der Autor Schritt für Schritt weiter in die Tiefe. An manchen Stellen ist das Buch vielleicht etwas zu theorielastig, aber insgesamt kann man es definitiv auf die Liste der besten SEO Grundlagenbücher setzen!

Informationen zum Buch:

Titel: Suchmaschinen-Optimierung: Das umfassende Handbuch: Aktuell zu Google Panda und Penguin

Autor: Sebastian Erlhofer

Verlag: Galileo Computing

Jahr: 2012

Seiten: 734

Preis: 39,90 (D)

ISBN: 978-3836218986