Reporting Center Login
×

SEO Whitepaper

Wichtigste SEO-Tipps im Bereich Technik

Von Ladezeiten über Cloaking bis hin zum HTML-Code: Wir geben Ihnen die wichtigsten Tipps für eine suchmaschinenoptimierte Technik.

 

 

Ihr Whitepaper für SEO-optimierte Entwicklung

Unsere Tipps zu den verschiedenen Optimierungsbereichen sollen Sie in die Lage versetzen, schwerwiegende SEO-Fehler bereits im Vorfeld zu erkennen und zu beseitigen. Natürlich ersetzen diese Regeln keine gründliche und nachhaltige Optimierung. Aber Sie helfen dabei, das „Fundament“ auf solide Beine zu stellen.

Technische Faktoren

  • Die Ladezeiten Ihrer wichtigsten Seiten (Startseite und wichtige Unterseiten) sollten sich im Rahmen halten (rd. 1,5 Sekunden), da bereits geringfügig längere Ladezeiten Auswirkung auf die Bounce- und Conversion-Rate haben.
  • Prüfen Sie selbst regelmäßig wie die Ladezeiten verbessert werden können. Ein gutes Tool hierfür ist gtmetrix.com
  • Cloaking, d. h. das Ausliefern anderer Inhalte an die Crawler der Suchmaschinen als an die Besucher (z. B. aufgrund des User-Agent oder die IP-Adresse) auf der eigenen Website ist auf alle Fälle zu verhindern, da ansonsten eine Abstrafung bis hin zur kompletten De-Indexierung der Website durch Google droht. Prüfen Sie mithilfe eines geeigneten Browser-Plugins, das den Abruf als Google-Bot simuliert, ob Cloaking vorliegt.
  • Unerreichbarkeit ist ein ernsthaftes Ranking-Problem. Zwar führt ein kurzer Ausfall nicht sofort zur kompletten De-Indexierung, allerdings haben im Zuge der Initiative zur Erhöhung der Geschwindigkeit des Internets häufige und länger auftretende Ausfälle bereits spürbaren Einfluss auf die Platzierungen.
    Tipp: Prüfen Sie immer den Status in den Google Webmaster Tools. Google teilt Ihnen hier Verbesserungsmöglichkeiten mit. Die Verantwortlichen Techniker sollten die Google Webmaster Tools regelmäßig prüfen.




Wichtige Tipps für Content Managment Systeme und Shops

  • CM-Systeme produzieren nicht immer sauberen und validen Code. Prüfen Sie daher Ihren Quellcode mit folgendem Tool:
    validator.w3.org auf Einhaltung der W3C-Norm.
  • Es sollten stets sprechende URLs ausgeliefert werden z.B. www.ihreurl.de/damenschuhe/sneakers/
  • Konfigurieren Sie Ihren Server so, dass auf Ihrem Webserver nicht existente Seiten bzw. Verzeichnisse (z. B. www.IhreDomain.de/beispiel) mit einem 404-Statuscode vom Server beantwortet werden und nicht fälschlicherweise mit einem 403-Statuscode. Sehr wichtig ist die Fehlerbehandlung bei jeder Art von Web-Applikation, da viele Systeme bei falschen oder fehlenden Parametern eigene Fehlerseiten ausgeben, die mit einem 200-ok Statuscode beantwortet und somit fälschlicherweise indexiert werden.
    Tipp: Prüfen Sie regelmäßig die Google Webmaster Tools auf 404 Fehler und leiten Sie diese via 301 auf passende und vorhandene Seiten weiter. So verlieren Sie keine Linkpower und keine Rankings
  • Interne Suchergebnisse gehören nicht in den Index der Suchmaschinen und sollten ausgeschlossen werden. Beispiel: www.IhreDomain.de/suche/
  • Löschen Sie alte Produktseiten nicht einfach vom Server, sondern leiten Sie diese per 301 auf die entsprechende nächsthöhere Kategorie weiter oder auf die Startseite.
  • HTML-Code sollte immer so effektiv und schlank wie möglich gestaltet sein. Skripte nach Möglichkeit in externe Dateien auslagern.
  • Vergessen Sie nicht, Ihre XML-Sitemap auf einem aktuellen Stand zu halten. Gerade bei Erweiterungen der Website können Suchmaschinen die neuen Inhalte über die sitemap.xml üblicherweise deutlich schneller finden und indexieren als über den normalen Crawl-Vorgang.
  • Eigene Tests haben gezeigt das gerade bei kleineren Projekten und Websites, Seiten die nicht in der Sitemap sind, deutlich später indexiert werden.
  • Eine fundamentale Angelegenheit, die immer noch oft übersehen wird. Wenn eine Website oder wichtige Inhaltsseiten wegen falscher Verlinkung, 404-Fehlern, (unnötigerweise) passwortgeschützten Bereichen oder anderen Gründen nicht erreichbar sind, können sie auch nicht indexiert werden.
  • Das Canonical-Tag sollte mit äußerster Vorsicht und nur nach Rücksprache eingesetzt werden, da bei falschem Gebrauch wichtige Seiten aus dem Index verschwinden können.
  • Vergessen Sie nicht, in der robots.txt-Datei einen Hinweis auf die Sitemap-XML-Datei zu geben, da Google beim Besuch einer Website zuerst die robots.txt-Datei ansieht. Beispiel für die Sitemap URL: www.website.de/sitemap.xml
  • Achten Sie darauf, dass Sie in der robots.txt-Datei nicht versehentlich wichtige Unterseiten bzw. Verzeichnisse sperren.
  • Die robots.txt-Datei ist eine öffentlich einsehbare Datei. Sensible Daten müssen daher anders vor einer Indexierung geschützt werden (z. B. Passwort Protection). Bedenken Sie außerdem, dass sich evtl. nicht alle Crawler an die Direktiven in der Datei halten.
  • Wird eine Seite in der robots.txt-Datei gesperrt, so erscheint diese dennoch in den Suchergebnissen. Soll eine Seite nicht indiziert und nicht gecrawlt werden, ist dies über ein „noindex, follow“ Meta Tag zu lösen. Achten Sie beim lokalen Einsatz des „noindex“-Meta Tags darauf, dass durch eine fehlerhafte Programmier-Routine nicht auch andere Seiten von der Deindexierung betroffen sind!
    Wichtige Seitenbestandteile wie Seitentitel und Meta-Descriptions sollten immer so individuell wie möglich gestaltet werden und nicht zu lang und nicht zu kurz sein. Für den Seitentitel empfiehlt sich eine Länge zwischen 70 und 80 Zeichen, die Meta-Description sollte nicht mehr als 180 Zeichen haben.
  • Perfekt wäre es wenn Sie für jede Seite die Meta Tags individuell pflegen. Bei sehr umfangreichen Projekten können Sie z.B. standardmäßig die Überschrift als Title nutzen. Details sind für jedes Projekt individuell festzulegen.
    Wir empfehlen: konfigurieren Sie Ihr CMS-System so, dass Bildern ein alternativer Beschreibungstext (alt-Attribut) hinzugefügt werden kann.

Domains & URLs

  • Vermeiden Sie nach Möglichkeit dynamische URLs (URLs mit angehängten Parametern. Beispiel: www.example.com/article/bin/answer.foo?language=en&answer=3&sid=98971298178906&query=URL), da diese zu schädlichem Duplicate Content führen können.
  • Inhalte sollten immer nur unter einer einzigen URL abrufbar sein. Die Erreichbarkeit mit und ohne führendes www in der URL (domain.com und www.domain.com) führt hingegen bereits zu zwei verschiedenen URLs, unter der die gleichen Inhalte liegen. Sollte Dublicate Content nicht vermieden werden können so ist der Einsatz des Canonical Tags zu empfehlen. Details müssen jedoch individuell für jedes Projekt ausgearbeitet werden.
  • Die Indexierung von Parameter-URLs kann über die Parameterbehandlung in den Google Webmastertools gesteuert werden. Dies sollte aber immer nur eine Notlösung sein.
  • Tracken Sie Session-IDs grundsätzlich mithilfe von Cookies und hängen Sie diese nicht an die URL an. Als Fallback-Mechanismus kann die Session-ID zwar auch als Parameter angehängt werden, aber die Seiten sollten dann unbedingt einen canonical-Tag enthalten, der auf die URL ohne Session-IDs zeigt. Zudem sollten entsprechende Einstellungen in den Google Webmaster Tools festgelegt werden.
  • Suchmaschinen bevorzugen ordentliche Strukturen innerhalb der URLs, also die Abbildung der idealerweise nach Suchbegriffen benannten Kategorien einer Website in den URLs. Auf diese Weise kann jede Seite in die logische Struktur eingebunden werden und für Suchmaschinen ergibt sich eine deutliche Zuordnung der Seiten zu den Kategorien. Beispiel:
    www.example.com/damenschuhe/pumps/

Navigation

  • Vermeiden Sie eine Navigation, die mit Hilfe von Bildern realisiert wird, da Suchmaschinen keine Bildinhalte verstehen. Aus SEO-Sicht ist eine reine Textnavigation gegenüber einer Bilder-Navigation immer vorzuziehen.
  • Suchmaschinencrawler führen üblicherweise kein JavaScript aus und können Code nur bedingt interpretieren. Navigationsmöglichkeiten, die auf Formular-Elementen basieren (beispielsweise DropDown-Boxen mit onChange-Handlern), können daher von Suchmaschinen nicht als Verlinkung erkannt werden. Hinter derartigen Elementen liegende Inhalte können somit komplett vor Suchmaschinen verborgen bleiben.
  • Verwenden Sie Flash niemals für Navigationszwecke, es sei denn, es gibt parallel eine HTML-Umsetzung.
  • Inhalte sollten nicht nur dynamisch über JavaScript (Ajax oder ähnliche Techniken) angezeigt werden, da Suchmaschinen diese sonst nicht erkennen und bewerten können.
  • Integrieren Sie Ihre wichtigsten Keywords in der Verzeichnissen bzw. Kategorien. Zur Identifikation der wichtigsten Keywords sollten Sie das Suchvolumen ermitteln z.B. via Google Keyword Tool und die aktuelle Position berücksichtigen.
    Tipp:
    Da die Kategorien möglichst selten geändert werden sollten empfehlen wir die Erstellung eines ordentlichen Keyword-Konzepts.

Relaunch

Schützen Sie Ihr Testsystem (Beispiel: dev.domain.de) vor dem Zugriff von aussen durch den Einsatz eines Passwort-Schutzes, da ansonsten Duplicate Content erzeugt wird und unfertige Seiten in den Index der Suchmaschinen gelangen.

Das Sperren via Robots.txt empfehlen wir nicht!

  • Erstens können User so trotzdem die Entwicklungsumgebung / Testumgebung einsehen
  • Die Robots.txt ist eine Empfehlung für Google an die sich Google nicht halten „muss“.
  • Häufig wird beim Übertragen der Dateien von Testsystem auf das Live-System die Robots.txt mitkopiert und so die Website komplett für Google gesperrt. Die Folge: Verlust aller Rankings und des Traffics.

Ein während der Entwicklungsphase auf dem Testsystem gesetztes „noindex“-Tag muss nach dem Relaunch unbedingt entfernt werden, da ansonsten die neuen Seiten nicht in den Suchmaschinenindex gelangen können.

Alte URLs müssen mit einer serverseitigen 301-Weiterleitung („permanently moved“) auf die neuen URLs weitergeleitet werden und nicht fälschlicherweise mit einem 302-Redirect („temporarily moved“).
Beispiel (htaccess-Datei): Redirect 301 /verzeichnis/beispiel.html www.domain.com/beispiel.html

Robots.txt-Datei und XML-Sitemap müssen nach dem Relaunch unbedingt an die neue Seite und Struktur angepasst werden, um die Indexierung zu beschleunigen.