Suchmaschinen-Optimierung (SEO allgemein)

Suchmaschinenoptimierung (engl. Search Engine Optimization = SEO) ist ein komisches Wort. Denn nicht die Suchmaschine wird optimiert, so wie der Automechaniker einen Verbrennungsmotor einstellt, indem er die Leerlaufdrehzahl reguliert und zudem ein mit allen möglichen Additiven gespicktes Hochleistungsöl hineingießt. Nein, von der Suchmaschine sieht der Suchmaschinen-Optimierer nicht mehr als der normale User auch.

Dem Suchmaschinen-Optimierer bleibt nur ein überschaubarer Werkzeugkasten. Zudem muss er auf die Lesbarkeit der Texte achten. Die wesentlichen SEO-Instrumente sind:

1. Themenspezifische Inhalte in der Sprache der User

Immer noch gilt der Grundsatz „Content is king!“. Guter Inhalt wird gerne gelesen und gerne verlinkt. Suchmaschinen analysieren Texte dahingehend, wie weit sie den semantischen Sprachraum eines Themas ausschöpfen (Latent-Semantische Indexierung) und eine entsprechende themenspezifische Kompetenz aufweisen können. Umgekehrt ist es daher Ziel der Suchmaschinen-Optimierung, Texte so aufzubereiten, dass sie von der Suchmaschine für kompetent gehalten werden (Latent-Semantische Optimierung). Intuitiv gelingt das am besten, wenn man gezielt für eine bestimmte Zielgruppe schreibt. Dann verwendet man automatisch Begriffe, die zueinander passen. Technische Unterstützung erhält man zum Beispiel von einem Tool wie Semager, das hilft, den Sprachraum eines Keywords zu ergründen. Am einfachsten kommt man in der Nische nach oben, dort wo der Wettbewerb nicht so rau ist. Trotzdem sollte man sicher sein, dass nach den Keywords auch jemand sucht und diese auf deren themenspezifische Perspektive und deren Sprachstil angepasst sind. Man sollte sich also die Frage stellen: „Mit welchen Suchbegriffen sucht ein potentieller User der Website?“

2. Gutes HTML, klare Struktur und auch mal ganze Sätze schreiben

Ein validiertes HTML schadet nicht. Wenn die Website auch noch ohne überflüssiges Flash auskommt ist das gut und wenn die Struktur nicht zu viele Ebenen aufweist ist, finden sich Google und Co. bestens zurecht und können den Code analysieren. Die Verwendung der Überschriften h1 bis h6, Listenelemente, Hervorhebungen in Kursiv- und Fettschreibung lässt auf einen gut strukturierten Textaufbau schließen. Da tiefergehende Weisheiten meist in längeren Textabschnitten präsentiert werden, ist es gut, wenn nicht nur reiner Stichwort-Salat präsentiert wird. Ideal sind Texte, die zwischen 400 und 600 Wörter umfassen.

3. Erreichbarkeit der Website, geringe Ladezeiten

Billige Hoster taugen nichts. Wenn die Website weg vom Fenster ist, kann sie nicht gefunden werden, auch nicht von Suchmaschinen. Auch voluminöse Grafik-Dateien, die die Ladezeiten erheblich verlängern wirken sich negativ aus.

4. Backlinks – mehr als nur PageRank

Ein höherer PageRank ist zwar immer noch schwierig zu bekommen und für manche Webmaster nach wie vor relevant, die ihn als ein Zeichen von Wertigkeit halten. Der PageRank – nach Google-Gründer Larry Page benannt, berechnet sich aus der Anzahl und wiederum dem PageRank ein- und ausgehender Follow-Links. Er sagt aber nichts über deren Qualität aus. Qualitätsfaktoren bei Backlinks sind

    • eine vielfältige, „natürlich wirkende“, aber durchaus themenrelevante Linkstruktur.
    • Links von Seiten mit TrustRank sind besonders wertvoll.
    • den eingehenden Links sollte man nicht unbedingt ansehen, dass sie gekauft sind.

Exkurs: Backlinks kaufen oder Backlinks verkaufen beim Marktführer teliad.

Als Marktplatz für das Kaufen und Verkaufen von Backlinks hat sich die Plattform teliad etabliert. Der Vorteil gegenüber anderen Plattformen ist, dass der Webmaster der linkgebenden Website einen Linktext erhält, der händisch in den HTML-Code einzufügen ist.

Vermeiden sollte man Linklisten und „Bad Neighborhood“ zu Erotik- und Glückspielseiten. Nicht offiziell bestätigt, aber durchaus plausibel ist das Konzept des Trust Rank. Dieses besagt, dass Websites, die einer manuellen Prüfung unterzogen wurden mit einem speziellen Bewertungsfaktor Linkjuice weitergeben.

5. SEO-Faktor Zeit – raus aus der Sandbox

Manches erledigt sich auch von selbst! Grundsätzlich gilt, dass mit wachsendem Alter einer Domain, sich das Ranking eines Internet-Auftritts verbessert. Nur wenn eine Abstrafung seitens der Suchmaschine vorliegt, Probleme mit der Indizierbarkeit vorliegen oder die Konkurrenten sehr viel SEO-Arbeit leisten darf man keine Verbesserung erwarten.

Content is king!

SEO-Weisheiten
Nr. 1: Content is king!
Nr. 2: Das machen wir mit Links!
Nr. 3: Blackhat is out!

Warum ist das so?

Zuallererst landen alle Websites in der Google Sandbox, das ist sozusagen die Warteschleife zu den Suchmaschinen-Ergebnissen (SERPs = Search Engine Result Pages). Das dauert meist zwischen zwei und vier Monaten. Je öfter und tiefer die Seite gecrawlt wurde und Vertrauen aufbauen konnte, desto eher werden auch relevante Keywords gefunden bzw. entsprechend positioniert. Festzuhalten bleibt jedoch, dass allein abwarten nicht zu den gewünschten Ranking-Positionen und Besucherzahlen führen wird.

6. Unique Content – keine Duplikate

Die Texte auf Ihrer Website sollten keineswegs irgendwo abgekupfert sein. Aber auch innerhalb der Website kann es durchaus Textduplikate geben, die ein Top-Ranking verhindern. Beispiele:

      • die Seiten sind sowohl mit als auch ohne „www“ aufrufbar. Hier reicht schon eine 301-Umleitung oder eine entsprechende Servereinrichtung.
      • die Startseite ist mit „www.domain.de“, aber auch mit „www.domain.de/index.html“ erreichbar
      • die URL wird etwa bei Webshops aus Abfragen zusammengebaut, die sich aus der Zugehörigkeit zu bestimmten Kategorien ergeben. So kann es passieren, dass ein Produkt über zwei verschiedene URLs zu finden ist. Da die Seiten inhaltlich identisch sind, ist auch dies Duplicate Content.

Bei den beiden zuletzt genannten Fällen ist eine Canonical URL ein probates Mittel zur Vermeidung von Duplicate Content.