Jahresarchiv 2020

blank VonDr.-Ing. Erik Neitzel
Performance-Optimierung von WordPress-Seiten

Die Geschwindigkeit von Webseiten ist von zunehmender Bedeutung für die Rankings, die eine Webseite von Google zugewiesen bekommt. Um die Platzierungen der eigenen Webseite nachhaltig zu erhöhen und so ihre Sichtbarkeit zu steigern ist eine Performance-Optimierung von zunehmender Wichtigkeit. Warum ist das so und was kann man konkret tun?

Motivation für möglichst geringe Seitenladezeiten

Jeder Nutzer möchte die von ihm angewählten Webseiten in möglichst kurzer Zeit betrachten können. Google adressiert dieses Akzeptanz-Kriterium mit höheren Rankings für Webseiten, die über geringe Seitenladezeiten verfügen.

In einer BBC-Studie zeigte sich, dass mit jeder Sekunde zusätzlicher Wartezeit je 10% mehr der Nutzer die Seite vorzeitig verlassen. Dies ist schon im Desktop-Bereich ein grundsätzliches Thema.

Performance und Platzierungen

Geschwindigkeit und Platzierung

Spätestens jedoch mit der so starken Verbreitung von Mobilgeräten, welche nur noch über eine geringe Bandbreite verfügen, wird der Unterschied zwischen schnell und langsam ladenden Webseiten sehr deutlich.

Was also kann ein Webseiten-Betreiber oder gar SEO tun, um seine Webseite möglichst ohne Verlust von Funktionalität zügiger laden zu lassen? Dieser Frage nähern wir uns mit dem Fokus auf WordPress-Seiten in diesem Artikel genauer.

Was ist Performance?

Zunächst zum oft zitierten Begriff der Performance. Was bedeutet es genau? Streng genommen ist es ein Synonym für Leistung. Leistung wiederum ist in der Physik die verrichtete Arbeit in einer bestimmten Zeit.

Leistung = Arbeit / Zeit

Was sagt uns das?

Wie kann man die Performance grundsätzlich erhöhen?

Um die Performance einer Webseite zu steigern, könnte man demnach drei Dinge tun:

  1. Die zu verrichtende Arbeit verringern, damit weniger Arbeit pro Zeiteinheit verrichtet werden muss
  2. Die Infrastruktur-Ressourcen erhöhen, damit mehr Arbeit pro Zeiteinheit verrichtet werden kann
  3. Beide der vorgenannten

Tatsächlich kümmern wir uns als SEO sowohl um die Verringerung der zu verrichtenden Arbeit, als auch um die Erhöhung des Durchsatzes verrichteter Arbeit gleichermaßen.

Doch wie genau kann das von statten gehen? Hierzu ist ein Blick auf die einzelnen Komponenten einer Webseite im Allgemeinen und WordPress im Speziellen sinnvoll.

Die Architektur moderner Webseiten

Ein zeitgemäßer Webauftritt umfasst folgende Ebenen:

  1. Server-Hardware (CPU, Arbeitsspeicher, Festplatten)
  2. Webserver-Software (Apache, nginx, u.a.)
  3. PHP-Ebene (Einstellungen innerhalb der php.ini)
  4. Datenbank-Ebene (MySQL, Oracle, u.a.)
  5. Content Management System (CMS) (WordPress, Typo3, etc.)
  6. Plugins innerhalb des CMS (WooCommerce als Shop-System, etc.)
Performance-Ebenen

Web-Architektur-Modell mit CMS: Performance-Optimierung auf allen Ebenen

Die Ebene der Plugins können wir unterscheiden in:

  1. Plugins, die Funktionalität für den Besucher der Webseite bereitstellen (Shops, Umfragen, Foren, etc.)
  2. Plugins, die Funktionalität für den Betreiber der Webseite bereitstellen (SEO-Plugins, Browser Cache Plugins, Bild-Optimierungs-Plugins, etc.)

Letztere können einen Performance-Mehrwert bieten. Hierüber werden wir später noch genauer sprechen. Doch zunächst soll es uns darum gehen, was etwaige Performance-Plugins leisten und warum dies eine Verbesserung darstellt. Es wird aber gleichwohl auch automatisch deutlich, wo die Grenzen von Performance-Plugins liegen. So wird dir als SEO greifbarer, was für die nachhaltige Geschwindigkeitsverbesserung deiner Webseite notwendig ist.

Die Ebenen der Performance-Optimierung

Analog zu den Architektur-Ebenen weiter oben können wir folgende Ebenen zur Erhöhung der Performance einziehen:

  1. Server-Hardware-Optimierung: Erhöhung der Ressourcen des Webservers (CPU mit höherer Taktrate und/oder mehreren Kernen, größerer Arbeitsspeicher, schnellere Festplatten, beispielsweise Solid State Drives)
  2. Webserver-Optimierung: Aktivierung von Modulen und Optionen auf Webserver-Ebene (später erläutert)
  3. PHP-Optimierung: Einstellungen innerhalb der php.ini (beispielsweise Aktivierung von Transfer-Kompression, u.a.)
  4. Datenbank-Ebene: Nutzung von Möglichkeiten zur Durchsatz-Erhöhung von Datenbankoperationen (beispielsweise Vorhalten einer Read Replica)
  5. CMS-Ebene: Etablierung eines schlanken Themes / Templates
  6. Plugin-Ebene: Deaktivierung aller nicht benötigten CMS-Plugins, Nutzung von Performance-Plugins, korrekte Einstellungen innerhalb aller Optimierungsplugins

Die höhere Ebene beeinflusst hierbei stets alle darunter liegenden mit. Daraus ergibt sich automatisch, dass Performance-Plugins lediglich auf CMS-Ebene greifen können und Operationen oberhalb des CMS nicht beschleunigen können. Beispielsweise kann ein Plugin nicht für die Erhöhung von Server-Ressourcen sorgen oder fehlkonfigurierte Server- oder PHP-Einstellungen ausgleichen, da ein jedes Plugin selbst auf sie angewiesen ist, um zu funktionieren.

Plugins sind in direktem Sinne von der korrekten Grundkonfiguration des Gesamtsystems abhängig. Anschließend können Plugins für die Optimierung dessen sorgen, was als Webseite an den Nutzer ausgeliefert wird. Es lohnt sich daher eine Optimierung auf allen vorbezeichneten Ebenen, um die Ladezeit der eigenen Seite effektiv zu verringern. Plugins allein genügen nicht.

Wir werden nun auf die einzelnen Optimierungsebenen im Detail eingehen.

Die Auswahl performanter Server-Infrastruktur

Zunächst liefert schon die Bezeichnung der ersten Optimierungsebene die Begründung dafür, weshalb Webseiten, insbesondere komplexe CMS wie WordPress, nicht auf fremd gehosteten Servern wie wordpress.com angemietet werden sollten.

Auch wenn man hier schnell zu einem Ergebnis kommt und wenig Konfigurationsarbeit leisten muss, liegt genau darin eben der Nachteil: man hat anschließend keinerlei Einfluss auf die Konfiguration.

Wer keinen Server in seinem Arbeitszimmer hinstellen oder einen aufwändig zu betreuenden Root-Server anmieten möchte, dem sei ein Mittelweg empfohlen. Das Mieten eines gut ausgestatteten Managed-Servers muss nicht teuer sein. Die Firma Hetzner liefert hier sehr günstige und hoch performante Server-Tarife. Auch im Anschluss lassen sich diverse Anpassungen an der Server- und PHP-Konfiguration vornehmen.

Konkrete Empfehlung

Es empfiehlt sich ein Server mit mindestens folgenden Hardware-Charakteristika:

  • CPU beispielsweise Intel® Xeon® E5-1650 v2 Hexa-Core
  • Arbeitsspeicher mindestens 64 GB DDR3 ECC
  • Festplatte beispielsweise 2 x 500 GB SSD
  • Netzwerk: 1 GBit/s-Port Anbindung mit garantierter Bandbreite

Die Optimierung der Webserver-Umgebung

Auf Ebene des Webservers empfehlen sich eine Reihe von Ausstattungsmerkmalen und Erweiterungen, welche die Auslieferung des vom Webserver an den Browser des Clients gesendeten Daten verringern und beschleunigen können.

Konkrete Empfehlung

Es empfiehlt sich ein Webserver mit folgender Software-Ausstattung:

  • Apache mit Möglichkeit für folgende Erweiterungen: mod_http2, mod_deflate, mod_brotli sowie mod_pagespeed
  • PHP5 und PHP7
  • MySQL mit verwalteter Backup-Funktionalität oder wahlweise Nutzung externer Datenbanksysteme wie dem Relational Database Services (RDS) der Amazon Web Services (AWS)
  • SSH-Zugang
  • Integrierte Backup-Funktionalität für Backup des Webspaces

Die Auswahl optimaler PHP-Einstellungen

Eng verwoben mit der Ebene des Webservers ist die auf dem Server genutzte Erweiterung des Hypertext Precompilers, kurz PHP, welche für die dynamische Generierung von HTML-Output auf Basis von Rechen- und Datenbankoperationen zuständig ist.

Die Charakteristika der PHP-Ebene lassen sich beispielsweise über die php.ini konfigurieren. Auch die auf dem Server laufenden PHP-Skripte selbst können einige Einstellungen verändern.

Es empfiehlt sich die Aktivierung folgender PHP-Erweiterungen, um grundliegende Funktionalitäten bereit zu stellen, welche die Ausführung der PHP-Skripte beschleunigen oder die über sie generierte Datenmenge verringern kann.

Konkrete Empfehlung

Die Aktivierung folgender Erweiterungen ist anzuraten:

  • APCu
  • OPcache

Weitere server- und PHP-seitige Anpassungen sind sinnvoll, welche die Ebene des über den Server ausgelieferten Contents betreffen. Hierauf soll jedoch erst weiter unten eingegangen werden.

Die Optimierung der Datenbank-Umgebung

Auf Ebene des Datenbanksystems gilt es, die später durch das CMS gelesenen (und unter Umständen durch den Besucher des CMS-Frontends geschriebenen) Datenbestände performant zugreifbar zu machen.

Konkrete Empfehlung

Es empfiehlt sich die Nutzung von Möglichkeiten zur Durchsatz-Erhöhung von Datenbankoperationen, beispielsweise durch Vorhalten einer Read Replica. Diese kann beispielsweise in gehobenen Infrastrukturen wie dem Relational Database Services (RDS) der Amazon Web Services (AWS) als Option hinzu gebucht werden.

Ferner sind selbst erstellte Skripte so zu entwickeln, dass unnötige Zugriffe auf die Datenbank unterbleiben. Das Übertragen von PHP-rechenintensiven Auswertungen in das Datenbanksystem kann wiederum einen Performance-Vorteil bedeuten, da sich die Datenmenge verringert, die aus der Datenbank gelesen und anschließend aufbereitet werden muss.

WordPress Performance-Tuning

Ein Content Management System wie WordPress dient im Wesentlichen der Bereitstellung der Funktion zur Trennung von Layout und Content einer Webseite oder eines Blogs.

Egal welche Inhalte (Texte, Bilder, Videos, etc.) dein Blog hat, er kann durch Auswahl oder Entwicklung eines anderen Themes stets vollkommen unterschiedlich dargestellt werden (neue Farbgebung, neue Position von Menüs, Widgets, Sidebars, Header, Footer, Favicon und vieles mehr).

Diese Trennung von Layout und Content ist eine sehr wichtige Grundvoraussetzung im Kampf gegen Performance-Einbußen. So kannst Du Optimierungen am Theme vornehmen, ohne deine Inhalte in Gefahr zu bringen.

Was dennoch passieren kann ist jedoch, dass Du durch Fehl-Anpassungen deines Themes die Darstellung deines Contents negativ beeinflusst.

Auch wenn wir gleich auf Plugins und ihre mächtigen Möglichkeiten zur Performance-Optimierung eingehen werden, so sei an dieser Stelle bereits gesagt, dass der unachtsame Umgang mit den Einstellungen von Performance-Plugins grundsätzlich eher Nachteile bei sowohl der Geschwindigkeit als auch der Darstellung des Themes haben kann.

Aus diesem Grund wollen wir nachfolgend lieber einmal “zu Fuß” beschreiben, welche konkreten Handlungen Vorteile bei der zügigen Auslieferung einer Webseite haben können und warum. Folgendes Video kann dir an dieser Stelle als zusätzliche Motivation und Informationsquelle darüber dienen, warum solche Anpassungen wichtig sind, und wie Du sie durchführen kannst.

Ausgangszustand als Optimierungsreferenz erfassen

Im Zuge der Optimierung für Performance auf CMS-Ebene steht stets die Frage im Raum: was kann ich weg lassen? Um diese Frage zu beantworten ist natürlich wichtig zu klären: was lädt bislang überhaupt mit? Hier kannst Du folgende Tools nutzen:

  1. https://tools.pingdom.com
  2. https://www.webpagetest.org
  3. Google PageSpeed Insights
  4. SERPBOT Performance Checker
  5. GTMetrix

Ist der derzeitige Performance-Status deiner Webseite einmal erfasst, kannst Du dich an die Beschleunigung von Theme und Content deiner WordPress-Seite machen.

Beschleunigung des WordPress-Themes

Manuelle Maßnahmen zur Anpassungen deines Themes sind von hier an insbesondere folgende:

  1. Nutze nur die Cascading Style Sheet (CSS)-Definitionen, die zur Darstellung deiner Webseite zwingend notwendig sind. Besonders komplexe Funktions-Plugins wie WooCommerce oder OptimizePress legen Unmgenen neuer Stil-Definitionen fest, die nicht zwangsläufig benötigt werden. Dünne daher zumindest die Stil-Definitionen deines genutzten Themes aus so weit Du kannst.
    Achtung: Nutze daher stets die Funktion zur Erstellung von Child-Themes, um dein Basis-Theme nicht zu gefährden und wartbar zu machen. Andernfalls kannst Du keine Updates mehr für dein Basis-Theme durchführen oder verlierst alle Anpassungen wieder, die Du vorgenommen hast.
  2. Lade nur Skripte (wie JavaScript), die Du auch tatsächlich benötigst. Oft laden Themes prophylaktisch Skripte mit, die Theme-Funktionalitäten bereitstellen, die Du nicht zwangsläufig aktiviert hast. Beispiele sind Slider, komplexere Kontaktformulare oder Video-Player. Um Skripte nicht zu laden, die bislang geladen werden, kannst Du in die functions.php deines Themes gehen und bestimmten Skripten explizit das Laden verbieten. Siehe hierzu die Funktionen wp_deregister_script und wp_deregister_style
  3. Theme-Dateien (wie CSS- und Skript-Dateien) sind statisch und ihre Auslieferung kann durch Caching auf Server- und Browser-Ebene beschleunigt werden. Für die Browser-Ebene sollte ein Cache-Validator angegeben werden.
  4. Minifiziere alle CSS- und Skript-Dateien. Zeilenumbrüche, Absätze, Kommentare, Tabulatoren und Leerzeichen sind für die Ausführung nicht benötigte Daten und verlangsamen die Auslieferung. Hierzu kannst Du beispielsweise https://www.minifier.org/ oder https://csscompressor.com/ oder https://jscompress.com/ verwenden.
  5. Kombiniere verstreute CSS-Dateien und Skript-Dateien zu je einer zentralen Datei, um unnötigen Anfrage-Overhead zu reduzieren.
  6. Einige Skripte können versetzt geladen werden. Dies sollte vorsichtig passieren, da die Funktionalität deiner Webseite unter Umständen eingeschränkt werden kann, wenn voneinander abhängige Skripte zu spät geladen wurden.
  7. Kleine CSS-Definitionen und Skriptinhalte sollten inline (innerhalb des HTML-Codes) definiert werden, um unnötige Netzwerk-Anfragen und Datei-Ladezeiten zu reduzieren.
  8. Verwende zur Auslieferung statischer Dateien wie CSS- und Skript-Dateien nach Möglichkeit ein Content Delivery Network (CDN). Hier kommt beispielsweise Amazon CloudFront der AWS in Frage.

Beschleunigung der Auslieferung des Contents

  1. Liefere Bilder in der Größe aus, in der sie auch dargestellt werden. Es gibt keinen Grund ein Bild mit höherer Auflösung auszuliefern als letztlich für ihre Darstellung erforderlich ist. Die letztlich dargestellte Bildgröße sollte zudem explizit im <img>-Tag definiert werden.
  2. Lade nur die Bilder automatisch, die durch Scrollen des Nutzers in den Viewport des Browsers gelangen. Im Normalfall laden sämtliche Bilder einer Seite vollständig bis zum letzten Bild. Dies verlangsamt besonders bei großen Bilddateien das Laden der Webseite enorm. Hier möchtest Du unter Umständen ein Plugin nutzen; hierzu kommen wir gleich.
  3. Optimiere alle in deinen Artikeln verwendeten Bilder durch Kompressionsverfahren, ohne an sichtbarer Qualität einbußen zu müssen. Hierzu kannst Du beispielsweise tinyjpg.com oder ezgif.com verwenden.
  4. Verwende zur Auslieferung deiner Bild-Dateien nach Möglichkeit ein Content Delivery Network (CDN). Hier kommt beispielsweise Amazon CloudFront der AWS in Frage.

Plugin-Tipps für WordPress

Viele der zuvor erwähnten Funktionen werden durch verschiedene Plugins stark vereinfacht, die hier nachfolgend näher beschrieben werden sollen.

Doch zunächst ein Wort zu Plugins im Allgemeinen. Es gilt: Je weniger, desto besser. Wird ein Plugin nicht zwingend benötigt, deaktiviere es. (Aus Sicherheitsgründen solltest Du es sogar löschen.)

Einige der Daten der Plugins, die übrig bleiben, gehören im Regelfall ebenso optimiert wie das Theme, das Du verwendest. Doch an dieser Stelle möchten wir dir nicht empfehlen, Änderungen an deinen Plugins vorzunehmen.

Vielmehr solltest Du diese Aufgabe einem weiteren Plugin überlassen, das speziell zur Optimierung von Performance konzipiert ist. Darin gilt es weise Einstellungen zu wählen und nach jedem Schritt zu testen, ob deine Seite sich visuell und funktionell noch so verhält, wie Du es erwartest.

Konkrete Empfehlung

Es empfiehlt sich der Einsatz eines der folgenden Performance-Plugins:

  1. WP Fastest Cache
  2. W3 Total Cache
  3. Pagespeed Ninja
  4. u.v.m.

Denke bitte daran, dass insbesondere die Manipulation von Skripten (beispielsweise zeitversetztes Laden, aber auch schon das Minifizieren des Quellcodes) dazu führen kann, dass bestimmte Funktionen deiner Seite sich nicht mehr so verhalten wie gedacht.

Du solltest daher unbedingt nicht nur auf optische Veränderungen prüfen, sondern nach jeder neuen Einstellung auch sämtliche Funktionen noch einmal testen (beispielsweise die Durchführung eines Bestellvorgangs in deinem Shop-System). Denke hier daran, den Seiten-Cache sowie deinen eigenen Browser-Cache vor jedem Test zurück zu setzen, da Du sonst einen veralteten Stand prüfst.

Das Performance-Fazit

Eine umfängliche Performance-Optimierung von WordPress-basierten Webseiten sollte aufgrund der Komplexität der zugrunde liegenden Technologien auf mehreren Ebenen geschehen. Von der infrastrukturellen über die Webserver- und Datenbank-Ebene bis hin zur Ebene der Optimierung von Theme und Content gibt es verschiedene Möglichkeiten. Hierbei gilt es einerseits, die vom System zu verrichtende Arbeit zu verringern, und andererseits die Möglichkeiten des Systems, die übrige Arbeit zu verrichten, zu erhöhen.

Nur ein Teil dieser Aufgaben kann von Performance-Plugins bewerkstelligt werden. Die jeweiligen Plugins sind schließlich auf die Möglichkeiten, Einschränkungen und vorhandenen Einstellungen des zugrunde liegenden Systems angewiesen. Um nicht zu viel Energie in die Aufbereitung von Theme und Content zu stecken, empfiehlt sich ihr Einsatz jedoch. Hier sollte jedoch stets ein Vergleich von vor und nach der Optimierung gefahren werden, um die Effektivität der Änderungen nachzuvollziehen.

Keinesfalls darf jedoch ein Funktionstest der Webseite nach erfolgter Optimierung fehlen. Sowohl die optischen Elemente einer Webseite als auch ihre Funktionen selbst sind anfällig für Fehler durch inkonsistente Optimierungen. Wir wünschen dir viel Erfolg bei deinem Optimierungsprojekt und stehen dir bei Rückfragen sofort zur Verfügung.

blank VonDr.-Ing. Erik Neitzel
Google-Updates aus SEO-Sicht — Fluch oder Segen?

Updates des Google-Algorithmus bewirken potenziell starke Veränderungen auf SEO-optimierten Blogs und Webseiten. Ob das nun gut oder schlecht für dich als SEO ist, hängt ganz vom Zustand deiner Webseite ab. Doch klären wir zunächst, worum es hier überhaupt geht.

Was ist ein Google Update?

In regelmäßigen Abständen veröffentlicht Google sogenannte “Core Updates”. Das sind Verfeinerungen jenes Algorithmus, der das Ranking des Webs für bestimmte Suchbegriffe bestimmt. Diese Verfeinerungen basieren auf der ständigen Qualitätskontrolle der Such-Ergebnisse, die Google permanent selbst durchführt. Auch adressieren sie die sich ständig verändernden Anforderungen des modernen Webs — beispielsweise die zunehmende Wichtigkeit der Optimierung von Webseiten für Mobilgeräte oder sich ändernde Datenschutz-Anforderungen.

Google Updates

Welche Art Google Updates gibt es?

Mögliche Google-Updates sind:

  • Permanente Updates: Tägliche Updates, die der Erhöhung der allgemeinen Suchqualität dienen
  • Updates bzgl. technischer Anforderungen: Updates, die die Optimierung einer Webseite für Mobilgeräte, Geschwindigkeit, Sicherheit (SSL) und ähnliches adressieren
  • Updates bzgl. rechtlicher Anforderungen: Updates, die der Konformität von Webseiten bestimmter Länder mit der aktuellen Rechtssprechung dienen (Stichwort DSGVO)
  • Updates bzgl. der Semantik von Suchanfragen: beispielsweise zur Unterscheidung allgemeiner vs. lokaler Suchanfragen (Restaurants, Tankstellen, etc.)
  • Updates zur Erkennung von Manipulationen: beispielsweise zur Verringerung der Rankings von Webseiten mit unnatürlichem Backlink-Profil

Neben diesen Kern-Updates, die Webseiten aller Gattungen und Themenfelder betreffen, gibt es auch themenbezogene Updates, die sich auf Webseiten ganz konkreter Industrien und/oder Themen konzentrieren. Unabhängig davon, welche Art Webseite diese Updates jeweils verstärkt betreffen: früher oder später wirst Du die Auswirkungen eines Google Updates spüren.

Was sind konkrete Google Updates der letzten Jahre?

Die zuvor genannten Arten von Google Updates finden sich in der Update-Historie von Google wieder:

  1. 2011 – Panda Update: Erkennung minderwertigen Contents mit geringer Nutzer-Akzeptanz
  2. 2012 – Penguin Update: Erkennung von Manipulationen des Backlink-Profils von Webseiten
  3. 2013 – Hummingbird Update: Semantisches Update zur Berücksichtigung der Suchintention des Nutzers
  4. 2014 – Pigeon Update: Berücksichtigung des Standortes des Nutzers bei Auslieferung von Suchergebnis-Seiten
  5. 2015 – Mobile Update: Unterscheidung von Desktop- und Mobilversion einer Webseite
  6. 2018 – Medic Update: Update zur kritischeren Bewertung von Webseiten “Your Money Your Life” (YMYL)-Inhalten
  7. 2019 – BERT Update: Update zur besseren Erkennung natürlicher Sprachen (optimiertes semantisches Verständnis von Anfragen)
  8. 2020 – May 2020 Core Update: Stärkeres Augenmerk auf “Expertise, Authoritativeness and Trustworthiness” (EAT), wohl vorrangig in Bezug auf die Aussonderung von Webseiten, die falsche medizinische Informationen im Rahmen der Corona-Krise weitergeben

Wir wissen nie genau was die jeweiligen Updates zum Inhalt haben. Auch ist diese Liste keineswegs vollständig. Sie gibt jedoch einen Eindruck darüber, wie Google arbeitet. Das folgende Video kann dir einen Eindruck vermitteln, was Google mit dem jüngsten Update aus 2020 bezweckte.

 

Sind Google-Updates gut oder schlecht?

Um die Frage zu beantworten, ob Du Freund oder Feind von Google Updates seins solltest, stellt sich zunächst die Frage der Perspektive.

Aus Sicht eines Anwenders, sprich desjenigen, der Suchbegriffe in eine Suchmaschine eingibt und dazu passende Ergebnisse erwartet, sind Google Updates in der Regel gut. Schließlich ist dies auch genau das Ziel der Feinjustierung des Algorithmus, das Google erreichen möchte.

Aus Sicht eines SEOs, kann sich ein Google Update wiederum sowohl vor- als auch nachteilig äußern. Frag dich daher: welche Methoden nutzt Du als SEO, um deine Webseite gegenüber Google voran zu bringen?

Die Frage ist: wie viel Manipulator steckt in dir als SEO?

Hast Du in der Vergangenheit viel Augenmerk auf die (selbst verursachte) Erhöhung deiner Backlinks gelegt, Links eingekauft und/oder deinem Content nur soviel Aufmerksamkeit geschenkt wie zwingend nötig war, wirst Du von einem Google Update kaum profitieren. Genau solche Seiten möchten diese Algorithmus-Optimierungen erkennen und ihnen künftig weniger Traffic zukommen lassen als anderen, nutzerzentrierteren Seiten.

Wenn Du als SEO hingegen deinen Content in den Vordergrund gerückt, rechtliche Notwendigkeiten beachtet, deinen Blog oder deine Webseite für verschiedene Geräte optimiert und den Backlink-Aufbau organisch hast passieren lassen, kannst Du auf kurz oder lang von sämtlichen Google Updates nur profitieren.

Wer oder was steht für dich im Zentrum deines SEO-Universums?

Um vor künftigen Google Updates keine Angst haben zu müssen, sondern dich im Gegenteil darauf freuen zu können, darfst Du dich auf möglichst ehrliche Weise fragen: wen stellst Du in den Mittelpunkt — deine Traffic-Ziele oder deine Besucher?

Erinnere dich: Google hat kein Interesse daran, dir möglichst viel oder möglichst wenig Traffic zukommen zu lassen. Google möchte schlichtweg sicherstellen, dass der Nutzer genau die Webseiten vorgeschlagen bekommt, die zu seiner Suchanfrage passen. Es ist also immer nur die Frage, welchem Besucher kannst Du am meisten dienen, und wie genau kannst Du diesen Nutzen sicherstellen?

Ein für dich passender Besucher sollte im Zentrum deiner SEO-Aufwände stehen. Dann ist jedes Google Update dein bester Freund.

Google belohnt daher implizit eine solide SEO-Methodik und die Schöpfung hochwertiger Webseiten.

Das Google Update-Fazit

Was wir als SEOs als Google Update kennen sind natürliche Iterationen der Reifung einer Suchmaschine. Sie sind das technische Äquivalent für das was die Natur als natürliche Mutationen vorhält, um sich der Umgebung bestmöglich anzupassen.

Frage dich möglichst nie, wie Du die aktuellen Änderungen des Algorithmus bestmöglich ausnutzen kannst. Frage dich stattdessen, was Du dir als Nutzer auf und von deiner eigenen Webseite am ehesten wünschen würdest, und wie sehr Du diese Anforderungen bereits erfüllst. Tust Du das nicht: Optimiere deine Webseite entsprechend. Das nächste Google Update wird es dir danken.

blank VonDr.-Ing. Erik Neitzel
Backlinks – Was, wie, warum und womit?

In unserer SEO-Rubrik haben wir schon oft von den Dingen gesprochen, die Du im Rahmen einer strukturierten SEO-Methodik für die Suchmaschinen-Optimierung deines Projektes beachten solltest.

Hier hatten wir unterschieden in Punkte, die auf und außerhalb deiner Webseite umzusetzen sind.

Backlinks im Rahmen eines übergeordneten SEO-Verständnisses

Rufen wir uns noch einmal zwei wesentliche Gestaltungsebenen eines SEO-bedachten Web-Projektes ins Gedächtnis:

  1. Aspekte auf deiner Webseite: Inhalte, Struktur, Ergonomie, Usability, Performance, Sicherheit, Datenschutz, Pflichtangaben, etc.
  2. Aspekte außerhalb deiner Webseite: Präsenz in sozialen Netzwerken, Backlinks, u.a.

Für Details ließ gern noch einmal unsere SEO-Checkliste.

Backlinks liegen hier also klar außerhalb deiner Webseite, sind damit jedoch nicht automatisch außerhalb deines Einflussbereiches.

Was sind Backlinks?

Unter einem Link verstehen wir selbstverständlich die Verbindung zwischen zwei Webseiten mittels anklickbarem Hyperlink. Du setzt solche Links entweder intern von einem Blog-Artikel zu einem anderen, oder Du setzt einen externen Link zu einer anderen Webseite.

Wenn dich eine andere Webseite wiederum verlinkt, dann ist das eine Referenz des Webs zurück zu dir — und daher der Name Backlink.

Warum sind Backlinks wichtig?

Um die Frage zu beantworten, weshalb Du Backlinks überhaupt Beachtung schenken solltest, ruf dir wieder in Erinnerung, was eine Suchmaschine wie Google eigentlich erreichen möchte.

Google hat kein Interesse daran deine Seite besonders gut oder besonders schlecht zu ranken. Das Ziel einer Suchmaschine ist stets dem Nutzer ein Ergebnis zu liefern, das möglichst gut zu seiner Anfrage passt. Deine Webseite muss also eine Relevanz zu einem bestimmten Thema haben.

Ein Mittel, diese Relevanz zu überprüfen, ist die Sichtung der Themen, mit denen sich dein Blog beschäftigt. Wie deine Blog-Artikel untereinander verlinkt sind gibt Google (schon über den Begriff, über den sie verlinkt wurden) Aufschluss darüber, mit welchem Thema sich deine Seite beschäftigt.

Kette mit Verbindungsgliedern

Starke Links

Doch eine rein thematische Einordnung gibt Google noch kein Indiz darüber, wie wertvoll deine Beiträge letztlich für einen Besucher sind.

Wenn nun jedoch mehrere andere thematisch gleich aufgestellte Seiten auf dich verlinken, dann unterstellt Google eine gewisse Autorität deiner Seite in Bezug auf das Thema, mit dem Du dich inhaltlich auseinandersetzt.

Deshalb sind Backlinks ein wichtiger Einflussfaktor für das Ranking deiner Seite und somit wichtig für dein SEO-Vorhaben.

Was sollte ich beim Aufbau von Backlinks beachten?

Grundsätzlich solltest Du den Aufbau von Backlinks nicht erzwingen. Links von anderen Seiten entstehen automatisch, je mehr dein Content an Qualität und Quantität reift und gedeiht. Doch natürlich startet jedes neue Web-Projekt von null, und deshalb möchten wir dir gleich einige Tipps an die Hand geben, wie Du ein gesundes Backlink-Profil aufbauen kannst, ohne dein Glück zu forcieren.

Doch zunächst sollen dir folgende Punkte als Wegweiser dienen:

  1. Organische Links entstehen ohne dein Zutun. Vertraue darauf, dass dich andere Webseiten verlinken werden.
  2. Betreibe keinen Link-Tausch. Google erkennt inzwischen sehr gut, welche Seiten-Eigentümer eine gewisse “Nähe” zueinander haben, und ob sie die SEO-Stärke ihrer eigenen Webseite ausnutzen, um anderen zu helfen.
  3. Nimm kein Geld für einen Link an, den Du auf eine andere Seite setzt.
  4. Biete niemandem Geld für einen Link an, der auf ihrer Seite erscheint.
  5. Schreib keine Gast-Artikeln zu anderen Blogs, die sich inhaltlich kaum unterscheiden, oder in gleicher oder ähnlicher Form sogar schon bei dir oder anderen Webseiten erschienen sind.
  6. Trag deine Webseite nicht massenhaft in Link-Netzwerke ein. Solche Backlinks haben eine sehr geringe Qualität und können in zu hoher Quantität dem Google-Ranking sogar abträglich sein.
  7. Lass dich nicht gezielt von anderen Seiten über Moneykeywords wie “Online Geld verdienen” oder ähnliches verlinken. Google erkennt diese heute sehr gut und schreibt ihnen wenig Bedeutung zu.
  8. Achte stets darauf, dass dein Backlink-Profil nicht zu einseitig wird. Der Ankertext deiner Verlinkungen sollte mal bestehen aus dem Markennamen, dann aus einer Quellenangabe, einer Empfehlungsseite, einem Artikel, und mal wieder einfach aus der URL, und hier jeweils versehen mit sowohl rel=”nofollow” als auch rel=”follow”. Das ergibt ein organisches Backlink-Profil.

Am letzten Punkt siehst Du schon: das beste Backlink-Profil wächst völlig von selbst und ohne dein Zutun.

Wie kannst Du gezielt Backlinks aufbauen?

Wenn Du die oben genannten Punkte alle vermeiden sollst fragst Du dich womöglich: was bleibt übrig? Nun, es gibt durchaus einige Punkte, die Du tun kannst, ohne deine Backlinks zu manipulieren:

  1. Schreib zwei bis drei sehr gut recherchierte Artikel, die Du anderen Blogs als Gastartikel vorstellst. Diese Blogs sollten ein möglichst hohes Ansehen haben: hohes Domain-Alter, thematische Fundiertheit, redaktionelle Prüfung. Hier gilt: je schwerer Du rein kommst, desto höher ist die Chance, dass Du einen positiven Effekt erhalten wirst.
  2. Betreibe aktives Netzwerken mit anderen Bloggern. Egal ob auf Messen, in sozialen Medien oder am Strand: wenn Du dich und deine inhaltliche Gewandtheit unter Beweis stellst, werden Blogger deine Inhalte entweder in ihren eigenen Kanälen bewerben oder dich sogar dauerhaft aus einem echten Artikel verlinken.
  3. Schreibe deine eigenen Artikel so tief und fundiert wie möglich. Erstklassiger Content wird verlinkt werden, ganz von selbst, darauf kannst Du dich verlassen. Ein Mittel dies stärker zu triggern ist der Einbau eigener Definitionen für bestimmte Themen, die nur über verteilte und stark voneinander abweichende Definitionen verfügen. Hier wird man dich dann ggf. von anderen Seiten als Quelle zitieren wollen, so man inhaltlich mit dir übereinstimmt.

Achte bei gezielt erwünschten Backlinks (vor allem bei Gastartikeln) darauf, dass der Link zu deiner Seite diesmal nicht mittels nofollow entwertet wird. Das würde deine Aufwände wertlos machen.

Wie kann ich prüfen, welche Backlinks ich habe?

Es gibt verschiedene Möglichkeiten für dich zu prüfen, ob Du über Backlinks verfügst und welche das sind. Im Wesentlichen lassen sich hier drei Varianten unterscheiden.

Möglichkeit 1: Google direkt abfragen

Ein sehr einfacher, aber auch sehr unpräziser Weg ist folgende Eingabe in Google:

link:DeineDomain.tld -site:DeineDomain.tld

Das “DeineDomain.tld” ersetzt Du durch deine eigene Domain. Hiermit weist Du Google an, die Links deiner Webseite aufzulisten und dabei die internen Links deiner Webseite zu ignorieren.

Doch Du wirst leider schnell feststellen, dass diese Ergebnisse auch viele Einträge beinhalten, die keinen echten Backlink darstellen, sondern sich in der Schreibweise nur mit dir ähneln.

Möglichkeit 2: Spezielle Backlink-Tools nutzen

Folgende Tools tracken Backlinks gezielt:

  1. https://monitorbacklinks.com (ab 25 $ monatlich)
  2. https://de.semrush.com (ab 99,95 $ monatlich)
  3. https://ahrefs.com (ab 99 $ monatlich)
  4. https://www.sistrix.de (ab 100 € monatlich)
  5. https://www.xovi.de (ab 99 € monatlich)
  6. und viele mehr, mit ähnlichen Preisen

Diese Tools sind meist Bestandteil großer SEO-Suiten für professionelle Agenturen oder Anbieter mit Domains wie ebay.de und anderen. Du wirst diese Tools selten benötigen, sie sind aber ein genauerer Weg zum Tracken deiner Backlinks als Google selbst.

Möglichkeit 3: SERPBOT Backlink Checker nutzen

Unser eigenes Tool ist eine Mischform der zwei oben genannten Möglichkeiten. Wir konzentrieren uns auf den Google-eigenen Index und filtern die Einträge um die Existenz eines realen Backlinks. So klammern wir überflüssige Einträge heraus und erhöhen die Qualität der Ergebnisse.

Der SERPBOT Backlink Checker ist Bestandteil unseres regulären Pro-Abonnements mit 17,00 EUR monatlich.

Was, wenn ich einen bestimmten Backlink von einer Seite gar nicht haben möchte?

Das ist eine sehr wichtige Frage. Denn Du kannst durch Spam- und andere Seiten mit negativer Web-Präsenz tatsächlich Nachteile im Ranking erfahren, sobald sie dich verlinken. Hierfür gibt es jedoch das Google Disavow-Tool. Mit ihm kannst Du bestimmte Seiten, die Du in einem Backlink-Tool gefunden hast, gegenüber Google verleugnen. Sie wirken sich somit nicht mehr negativ auf dein Ranking aus.

Doch Vorsicht: wenn Du dir nicht sicher bist, solltest Du einen Link lieber nicht entwerten. Denn Du kannst dir mit der Entfernung eines Links auch schaden, wenn er von einer Webseite kommt, die von Google positiv angesehen wird — selbst wenn Du das vielleicht nicht tust.

Das kleine Backlink-Fazit

Verlinkungen anderer Seiten zu deiner Seite sind für Suchmaschinen ein wichtiger Indikator für Relevanz und Autorität deiner Seite. Sie belegen die Beliebtheit deiner Inhalte bei thematisch verwandten Seiten. Du kannst den Aufbau von Backlinks fördern, indem Du dich vernetzt und Gastartikel veröffentlichst. Doch in erster Linie solltest Du erstklassigen Content veröffentlichen. Dieser wird in jedem Fall verlinkt werden. Hab Geduld.

Manche Backlinks können einen negativen Effekt auf dein Ranking haben. Solche kannst Du gegenüber Google verleugnen. Die Prüfung von Backlinks kann durch verschiedene Tools erfolgen. Gern kannst Du auch unser eigenes Tool nutzen. Wir wünschen dir viel Erfolg und viele organisch gewachsene Backlinks. Bleib dran! 🙂

blank VonDr.-Ing. Erik Neitzel
Keyword Research Tool zu Chancen-Recherche und Wettbewerbsanalyse

Jedes methodisch durchgeführte SEO-Projekt beginnt mit der Überlegung, welche thematisch passenden Keywords die eigene Webseite adressieren sollte. Diese einfach klingende Frage beinhaltet jedoch allerlei Recherchen, die entweder manuell oder automatisiert ablaufen können. Wir schauen uns in diesem Beitrag einmal an was zu tun ist und wie es erledigt werden kann.

Recherche-Aufgaben für SEO-Projekte

Das Ziel einer SEO-optimierten Webseite ist der Erhalt möglichst vieler Besucher, die am angebotenen Thema interessiert sind. Um diesem Ziel zu begegnen müssen folgende Fragen beantwortet werden:

  1. Welches Thema bedient meine Webseite konkret?
  2. Welche Keywords passen zum Thema der eigenen Webseite?
  3. Welche dieser Keywords werden von Menschen via Google jeden Monat gesucht?
  4. Wieviele Suchanfragen erhalten diese Keywords konkret?
  5. Welchen Wettbewerb (SEO-Konkurrenz) haben die häufig gesuchten Keywords?
  6. Welche Keywords bleiben übrig, die ein gutes Verhältnis zwischen Suchanfragen und Wettbewerb haben?

Erst wenn diese sechs Fragen systematisch beantwortet werden konnten, ist man in der Lage, die eigene Webseite mit Content anzureichern, der für Keywords optimiert ist, die tatsächlich von Menschen gesucht werden, und für die man eine Chance hat in den oberen Plätzen für Google zu erscheinen.

Möglichkeiten zur Keyword-Recherche: per Hand oder Tool?

Grundsätzlich lassen sich über den Einsatz des Google AdWords Keyword Planners und der gewissenhaften Nutzung von Excel- oder Numbers-Tabellen alle sechs Fragen so beantworten, dass ein vertretbares SEO-Ergebnis entsteht.

Diesen Weg per Hand zu gehen erfordert jedoch einen enormen Zeit- und/oder Finanzaufwand, der nicht mehr in die Erstellung einzigartigen Contents investiert werden kann. Zudem gibt der Google-eigene Keyword Planner bewusst keine exakten Werte mehr aus.

Gleichzeitig sind die oben genannten Fragen jedoch alle rechnerisch lösbar und erfordern wenig Kreativität. Das notwendige Maß an Fantasie ist auf die Eingabe eines Seed-Kennwortes (also eines Ausgangs-Suchbegriffes) beschränkt, das zum Thema der eigenen Webseite passt.

Seed-Keyword

Seed-Keyword

Es empfiehlt sich daher der Einsatz eines Keyword-Tools, welches die genannten Schritte automatisch erledigen kann. Wie passiert das genau?

Toolgestützte Keyword-Recherche zur Chancen- und Wettbewerbs-Analyse

Ein Keyword-Tool arbeitet nach folgendem Schema:

  1. Eingabe eines Seed-Keywords durch den Nutzer, welches thematisch passend zum eigenen Blog oder der eigenen Webseite ist.
  2. Automatische Identifikation von Keywords, die von Besuchern häufig in Kombination mit diesem Seed-Keyword gesucht werden.
  3. Automatische Abfrage von Suchvolumen (Traffic) dieses Keywords.
  4. Automatische Abfrage von Wettbewerb (Konkurrenz) dieses Keywords auf Google AdWords (die Schaltung von Werbeanzeigen für ein bestimmtes Keyword zeigt, wie sehr bestimmte Keywords am Markt umworben werden).
  5. Automatische Abfrage der CPC (Cost per Click) eines jeden Keywords auf Google AdWords (hierüber lässt sich ein Gefühl dafür gewinnen, welchen Wert die Konkurrenz einem bestimmten Keyword beimisst — sofern dafür gezielt Anzeigen geschaltet werden)
  6. Automatische Berechnung des Quotienten aus Suchvolumen und Wettbewerbsfaktor

Das Tool identifiziert auf diesem Weg vollautomatisch jene Keywords, die (a) von Nutzern gesucht werden und die (b) bislang vom Markt weniger stark beachtet werden. Das Schreiben von Artikeln (Texten) für genau diese Nischen-Keywords ist letztlich ein Garant für dauerhaften und kostenfreien Traffic, der auf die eigene Webseite oder den eigenen Blog fließen kann.

Google Keyword Tool

Google Keyword Tool

Das Fazit zum Thema Keyword-Tool für Google

Eine systematische Analyse von durch Nutzern gesuchten Keywords, ihrem Suchaufkommen und der dahinter stehenden Konkurrenz ist notwendig, um Traffic auf die eigene Seite zu bringen. Dieser Prozess ist enorm aufwändig und erfordert zudem Zugänge und Wissen zu und über die Google-eigenen Tools und wie sie funktionieren. Zudem gibt Google Nutzern, die keine aktiven Werbeanzeigen in Google AdWords schalten, keine genauen Suchvolumen-Werte mehr heraus.

Ein Keyword-Tool für Google löst diese Probleme durch automatische Analyse von Suchbegriffen, ihrem Suchvolumen und ihrer Konkurrenz auf Basis eines Seed-Keywords. Algorithmen sorgen anschließend für die Ausgabe konkreter Keyword-Empfehlungen, die am Markt bislang noch nicht adressiert werden. Hierüber lässt sich Traffic aus der Google-Suche auf die eigene Webseite gewinnen. Jeder Blogger kann sich so konkret auf das konzentrieren was seinem Kern entspricht: der Erstellung einzigartigen Contents zu seinem Thema.

Folgende Möglichkeiten stehen dir zur Nutzung des Tools zur Verfügung:

Wenn Du die kostenlose Version des Tools nutzen möchtest, kannst Du dich
Hier kostenfrei registrieren

Wenn Du die SERPBOT PRO Version nutzen möchtest, kannst Du
Hier deinen PRO-Zugang bestellen

Das SERPBOT Keyword-Tool steht dir mit Rat und Tat zur Seite. Wir wünschen dir viel Erfolg bei deinem nächsten SEO-Projekt!

blank VonDr.-Ing. Erik Neitzel
Ranking-Einbrüche aufgrund von schwarzen Schaf-Artikeln

Du hast dich womöglich schon gefragt, warum ein einzelner Bereich oder sogar deine ganze Domain in den Ranking-Positionen einbricht, obwohl Du aus deiner Sicht schon alles in deiner Macht stehende getan hast, um sauber zu sein. Du hältst dich an alle gängigen Standards, deine Seite ist performant, sicher, strukturiert, natürlich verlinkt und mit hochwertigem Content versehen. Trotzdem sind die Platzierungen auf Google und co nicht das, was Du erwartest. Grund sind oft das, was wir hier “schwarze Schafe” nennen wollen.

Was sind schwarze Schafe?

Es gibt Artikel, die Google aus den unterschiedlichsten Gründen nicht mag. Der Effekt kann sein, dass dieser eine Artikel, die Kategorie zu der er gehört oder die gesamte Webseite abgestraft wird. Das kann sich durch leichte Reduktion der Platzierungen oder durch eine Penalty ausdrücken, die sich weit stärker auf die Rankings auswirkt.

Wenn Du unsere Checkliste für hochwertige Webseiten bereits umgesetzt hast, kann ein Bereich übrig bleiben, der bei Google ständig in Bewegung ist: die Autorität deiner Webseite in Bezug auf ein bestimmtes Themenfeld. Das mag so klingen, als könntest Du gar nichts daran ändern, doch das stimmt so nicht.

Oft sind es einige wenige einzelne Artikel — vielleicht 3 von 76 — die Google als heikel ansieht.

Schwarzes Schaf

Ein stiller Beitrag

Ein Beispiel für einen solchen Artikel könnte sein, dass Du ein gesundheitlich relevantes Thema aufgreifst, über das Du aus Sicht von Google keine ausreichend hohe Kenntnis verfügst. Suchmaschinen möchten hier schlichtweg verhindern, dass sich dieser “Laien-Tipp” in der Welt verbreitet — und das ist natürlich auch richtig so.

Wie erkennt man diese Problemkind-Beiträge?

Für das Problem der Aufdeckung schwarzer Schafe haben wir in unserem SERPBOT zwei Features entwickelt:

  1. Einen Keyword-Filter mit einem Graph, über den Du den bisherigen Platzierungsverlauf der gefilterten Keywords erhältst. Das mag trivial klingen, doch hierüber ergeben sich oft äußerst interessante Erkenntnisse, wie in den folgenden Beispielen ersichtlich.
  2. Ein spezielles Feature “Rankings je URL”, welches dir den zeitlichen Verlauf der Mittelwerte deiner Rankings für die ausgewählte Unterseite darstellt. Mit diesem Tool kannst Du ganz gezielt erkennen, ob Google bestimmte Unterseiten nachteilig behandelt. Die Platzierungen aller Keywords, die für die jeweilige Unterseite jemals Rankings erhalten haben, werden bei Berechnung und Darstellung der Mittelwerte berücksichtigt.

Beispiel #1: *atem*

Hier sehen wir die Verlaufskurve der Platzierungen von Artikeln, die “*atem*” beinhalteten und von Google systematisch in den Platzierungen herabgestuft wurden — bis sie schließlich gar keine Rankings mehr hatten.

Ranking-Einbruch Beispiel Keywords zu Atem

Ranking-Einbruch Beispiel Keywords zu Atem

Schauen wir auf ein weiteres Beispiel.

Beispiel #2: *depression*

Hier sehen wir den Ranking-Verlauf einiger Artikel, die das Wort “*Depression*” beinhalteten. Auch diese Artikel erhielten immer schlechtere Rankings und wurden schließlich aus dem Index entfernt, sodass eine Null-Linie entstand.

Ranking-Einbruch Beispiel Keywords zu Depression

Ranking-Einbruch Beispiel Keywords zu Depression

Auf diese Weise können wir klar erkennen, dass einige Artikel von Google offenbar als problematisch angesehen werden. Hier kommt natürlich sofort das Google-Medic-Update in den Sinn, das gesundheitsbezogene Inhalte dann als kritisch einstuft, wenn die jeweilige Seite keine Autorität auf diesem Gebiet ist. Das ist natürlich nachvollziehbar, niemand möchte einen gesundheitlich unvollständigen oder sogar schädlichen Rat bekommen.

Wie kann man mit diesen Artikeln umgehen?

Wir können davon ausgehen, dass Google auch die restliche Seite “stiefmütterlich” behandelt, wenn einige Artikel inhaltlich und/oder autoritär aus dem Raster fallen. Schließlich möchte Google ja gerade verhindern, dass diese Artikel gefunden werden. Da hilft es wenig, die restliche Seite in hohem Glanz erscheinen und die übrigen Artikel mit starken Rankings stehen zu lassen.

Es lassen sich verschiedene Vorkehrungen treffen, um die restliche Seite nicht unter dem Effekt negativer Artikel leiden zu lassen.

Hierunter fallen:

  1. Die Überarbeitung dieser schwarzen Schafe: Wenn Du es dir zutraust, unterziehe diese Artikel einer Generalüberholung. Das sollte sowohl die inhaltlich-redaktionelle Überarbeitung als auch die Sichtung externer Links von und zu diesen Artikeln einschließen. Hier bleibt zunächst natürlich das Risiko aufrecht, dass sich durch diese Optimierungen keine Veränderung einstellt.
  2. Das Aussondern dieser Artikel auf eine andere Domain: Du kannst eine zweite Webseite aufbauen, wo potenziell kritische Artikel ihren Unterschlupf finden. Von dort aus hat eine eventuelle Abstrafung dieser Inhalte keinen negativen Effekt mehr auf deine Hauptdomain. Vermeide hier bidirektionale Links zwischen beiden Domains.
  3. Das Löschen dieser Artikel: Im Zweifelsfall ist es natürlich das nachhaltigste Mittel, schwarze Schafe einfach zu entfernen. Das wird natürlich nur dann sinnvoll sein, wenn diese Artikel eine inhaltliche Ausnahme zur restlichen Webseite bilden, sodass deine Seite nicht auf diese Beiträge angewiesen ist.

Was lernen wir daraus?

Das kleine Schaf-Fazit

Es gibt Artikel, die Google aufgrund mangelnder inhaltlicher Autorität deiner Domain als kritisch ansieht. Diese Beiträge gilt es durch kreative und toolgestützte Arbeit zu identifizieren, zu verändern, zu verschieben oder zu entfernen.

Anschließend kannst Du deine Platzierungen wieder beobachten und prüfen, ob sich eine Veränderung der Mittelwerte der Platzierungen über deine Domain einstellt. In den oberen zwei Beispielen wurden die betroffenen Artikel entfernt und die Webseite hat sich nach etwa vier Wochen gänzlich erholt.

Wir wünschen dir viel Erfolg bei der Identifizierung und Behandlung deiner schwarzen Schafe!