Suchmarketing

Die Infoseite zum Suchmaschinen-Marketing.

SEO: Indexpflege durch Content-Optimierung

| 2 Comments

Zu viele schlechte Seiten auf einer Domain können der gesamten Website schaden. Indexpflege ist daher ein wichtiges Thema geworden, wofür u.a. regelmäßige Content-Optimierungen notwendig sind.

Lange Zeit war SEO-Content-Optimierung eine einfache Sache: Die Keywords wurden ausgewählt, ein dazu passender Textinhalt wurde verfasst und der Hauptfokus lag dabei auf einer ausreichend hohen Keyword-Dichte. Danach wurden die fertiggestellten Inhalte abseits von den wichtigsten Landingpages meist nicht mehr weiterentwickelt.

Doch seit dem Jahr 2011 mit dem Panda-Update und dem Einzug der Nutzersignale ist eine wiederkehrende, iterative Content-Optimierung notwendig. Drei wesentliche Faktoren sind bei der Content-Entwicklung zu berücksichtigen:

  • Keyword-Targeting: Seiten müssen unverändert auf Keywords abgestimmt werden.
  • Nutzerverhalten: Seiten müssen positive Nutzungssignale erzeugen – d.h. eine hohe SERP-Kickrate und niedrige Return-to-SERP-Rate.
  • Indexhygiene: Indexhygiene ist ein bisher wenig erforschtes und diskutiertes SEO-Thema. Ziel ist ein möglichst niedriger Anteil an Seiten mit schlechter Performance (wenige SERP-Impressions, schlechte Nutzersignale, Thin-Content, fehlerhafte Seiten) indexieren zu lassen. Betrachtet wird dabei nicht wo bei den beiden vorherigen Faktoren die Einzelseite sondern die gesamte Website.

Ein konventioneller Ansatz zur Content-Optimierung wäre, die Inhalte mit dem größten Potential (in Bezug auf Conversions oder Traffic) zu optimieren. Dieser Ansatz ist in Hinblick auf begrenzte Ressourcen sicherlich sinnvoll.

Doch in Hinblick auf die Indexhygiene ist dieser Ansatz  nicht geeignet. Seiten mit schlechter Performance bleiben damit meist  unverändert im Index. Wir zeigen daher hier eine andere Vorgangsweise, die vor allem auf Indexpflege abzielt.

Konzepte wie Indexhygiene oder SEO-Effizienz sind bisher nicht weit verbreitet – doch vor allem vom Panda-Update betroffene Websites konnten durch Indexpflege wieder Rankings zurückgewinnen. Extreme Ansätze wie etwa von Tradebit gingen sogar so weit, dass auch Produkte mit schlechten Reviews gelöscht und Produkte ohne Umsatz versteckt wurden.

Indexpflege bei Tradebit

Indexpflege bei Tradebit

Seiten ohne SERP-Sichtbarkeit

Die Mindestanforderung an eine Seite ist aus SEO-Perspektive die SERP-Sichtbarkeit. Die Seite muss daher zumindest bei manchen Keywords ein Ranking bzw. Impressions aufweisen.

Die Anzahl der SERP-Impressions wird in den Google Webmaster Tools unter dem Menüpunkt Zugriffe > Suchanfragen pro URL und pro Keyword angezeigt. Für unsere Analyse ziehen wir die Analyse pro Seite/URL heran.

SERP-Impressions

Anzahl der SERP-Impressions pro URL laut Google Webmaster Tools

Diese Liste muss mit der Liste der vorhandenen Inhalte abgeglichen werden. Die Seiten mit den wenigsten SERP-Impressions werden dann zuerst optimiert oder entfernt.

Zuerst müssen jedoch die Ursachen für die schlechte Performance analysiert werden:

  • Fehlender Keyword-Fokus: wurde auf keine Keywords optimiert?
  • Suchvolumen: Wurde auf Keywords ohne relevantes Suchvolumen optimiert?
  • Keyword-Konkurrenz: Ist aufgrund der Konkurrenzsituation kein gutes Ranking möglich?
  • Keyword-Integration: Wurde nicht ausreichend auf das gewünschte Keyword optimiert?
  • Nutzersignale: Hat die Seite aufgrund von schlechten Nutzersignalen ehemals bestehende Rankings bereits wieder verloren?

Eine wesentliche Frage ist dann, ob die SERP-Sichtbarkeit mit angemessenen Ressourcen (für Content-Optimierung oder Backlins) verbessert werden kann. Abhängig davon gibt es mehrere Möglichkeiten zu Wahl:

  • Seite optimieren, wenn eine Verbesserung mit angemessenen Aufwand realistisch ist.
  • Seite löschen, wenn die Seite nicht verbesserbar jedoch verzichtbar ist.
  • Canonical-Tag, wenn die Seite mit positiven Signalen belegt ist (z.B. Backlinks).
  • Noindex-Tag, wenn die Seite unverzichtbar, aber mit negativen Signalen belegt ist.

Seiten mit schlechter Klickrate

Die Klickrate kann ebenfalls ausschließlich mit den Google Webmaster Tools herausgefunden werden (bzw. über die GWT-Verknüpfung in Google Analytics).

Die Interpretation der Klickrate ist jedoch von der Ranking-Position abhängig. Auf Keyword-Ebene werden die Klickraten auch abhängig von der Position angezeigt.

SERP-Klickrate abhängig von der Ranking-Position

SERP-Klickrate abhängig von der Ranking-Position – hier eine eher mäßige Klickrate

In diesem Fall werden zuerst die Seiten mit den meisten Impressions optimiert.

Bei einer schlechten Klickrate für die wichtigsten Keyword gibt es folgende Optionen:

  • Title-Tag optimieren
  • Vorschautext optimieren (Meta-Description)
  • URL verbessern (z.B. aussagekräftiger, kürzer)
  • Breadcrumb-Snippets statt URL anzeigen lassen
  • Bei Domainweiter schlechter Klickrate: anderer Domainname, andere Domainendung
  • Rich Smippets: Autorenprofile, Reviews, Produktdaten, …

Da sich schlechte Klickraten fast immer optimieren lassen, ist eine Optimierung in praktisch jedem Fall sinnvoller als eine gezielte Deindexierung – es sei denn, dass Angebot passt einfach nicht zu einem Keyword.

Zu beachten ist außerdem, dass “schlechte” Klickraten auch nicht beeinflussbare Faktoren wie Universal Search Integrationen oder zu präsente AdWords-Anzeigen als Ursache haben können, die nicht der Website negativ anzurechnen sind.

Seiten mit hohen Return-to-SERP-Rates

Die Return-to-SERP-Rate kann leider nicht genau bestimmt werden. Sie korreliert jedoch mit der Absprungrate. Für aussagekräftigere Analysen sollte hier jedoch idealerweise eine modifizierte Absprungrate verwendet werden.

Zur Analyse in Google Analytics sollte unter Traffic Sources > Search > Organic auf Primary Dimension = Landingpage umgestellt werden. Die Absprungrate sollte im ersten Schritt auf Seitenebene analysiert werden, beginnend mit den Seiten mit den meisten Klicks.

Absprungrate nach Seiten in Google Analytics

Absprungrate nach Seiten in Google Analytics – die zwei markierten Seiten haben eine relativ hohe Absprungrate im Vergleich zu den anderen Seiten des Angebots und wären damit Optimierungskandidaten.

Einer der wichtigsten Punkte ist die Abstimmung auf die Nutzerabsicht. Analysieren Sie, über welche Keywords die Nutzer auf dieser Seite landen. Werden die passenden Inhalte zu diesen Keywords angeboten?

  • Stimmen Sie die Seite wenn möglich besser auf die Suchanfrage ab.
  • Bei Besuchen über ungeplante Nebenkeywords (z.B. “günstige Smartphones” auf einer Seite zu Smartphones, wo eher hochpreisige Modelle vorgestellt werden): erstellen Sie eine neue Unterseite, die genau auf diese Keywords optimiert ist.
  • Wenn die Keywords nicht abgedeckt werden können (z.B. typische Negativ-Keywords aus AdWords wie “kostenlos” bei Shops): entfernen Sie die Vorkommen dieses Keywords und verschlechtern Sie bewusst ihre Position, sofern dieses Keyword für Sie nicht Conversion-relevant ist.

Nicht immer ist die Abstimmung auf die Nutzerabsicht das Problem. Weitere Optimierungsmaßnahmen sind daher:

  • Verbesserung der inhaltlichen Qualität
  • Verbesserung der optischen Präsentation
  • Den Nutzer durch neue Elemente auf der Seite halten:
    Fotogalerien, Videos, Rechner, Umfragen, sonstige interaktive Elemente, …
  • Verweise auf weiterführende Inhalte (auch auf externe Seiten, wenn Sie selbst keine passenden Inhalte anbieten – dies ist besser als eine Rückkehr zur Suchergebnisseite)

Wenn die Optimierung nicht erfolgreich oder nicht möglich ist, und die Seite nicht Conversion-relevant ist, bleibt die gezielte Deindexierung der Seite als letzte Option. Eventuelle Backlinks sollten dabei mit einem Canonical-Tag auf eine inhaltlich ähnliche, aber besser funktionierende Seite umgelenkt werden.

Zusammenfassung und wiederkehrende Optimierung

Zusammenfassend sollten alle Seiten hinsichtlich ihrer Nutzersignale und SERP-Performance analysiert werden. Seiten mit schlechter Performance sollten verbessert werden. Dies ist jedoch kein einmaliger Vorgang – vielmehr sollte dies immer wieder wiederholt werden, weil sich auch Rankings und Nutzerverhalten immer wieder verändern.

Als letzter Schritt sollte dabei auch immer eine Deindexierung von schlechten Seiten in Betracht gezogen werden. Denn wie etwa das Panda-Update gezeigt hat, kann die gesamte Website wegen zu vieler schlechter Einzelseiten als Gesamtes abgewertet werden.

Mit den hier aufgezählten Maßnahmen ist das Thema Indexpflege jedoch noch nicht abgeschlossen. Andere Indexprobleme wie Duplicate Content und Seitenfehler (siehe Google Webmaster Tools) müssen ebenfalls behandelt werden.

2 Comments

  1. Hallo,

    toller Beitrag gut recherchiert.
    Gruß
    Marco

  2. Glaube ein paar dieser Tipps könnten meine jüngsten Serp Verluste wieder nach oben korrigieren. Gleich mal ausprobieren.

Leave a Reply

Required fields are marked *.


Visit Us On FacebookVisit Us On Google Plus