Die drei größten SEO-Mythen 2019: Die Irrtümer halten sich bis heute hartnäckig

14. August 2019 // Lukas Schenk

Suchmaschinenoptimierung ist komplex und alles andere als exakt. Selbst bei eingefleischten SEO-Experten beginnt nach jedem Google-Algorithmus-Update das Rätselraten nach Ursachen für Ranking-Veränderungen. Außer Google selbst kennt niemand sämtliche Ranking-Faktoren. Monitoring und Erfahrungen zeigen jedoch ganz klar, was in der Praxis nicht (mehr) funktioniert. Dennoch halten sich einige SEO-Mythen besonders hartnäckig.

Die seriöse und vor allem effektive Optimierung einer Website unter SEO-Gesichtspunkten kostet Zeit und Ressourcen – nicht zuletzt, weil es ein unendlicher Prozess ist. Denn es gibt weder die „perfekte“ Website, noch wird Google damit aufhören, durch Updates seinen Algorithmus zu verändern. Umso ärgerlicher ist es dann, wenn die kostbare Zeit in halbgare oder schlimmstenfalls veraltete Optimierungsmaßnahmen gesteckt wird, die auf SEO-Mythen basieren.

 Es gibt laut Google-Richtlinien keine Duplicate-Content-Strafe.

Diese SEO-Mythen sind nicht nur praktisch nutzlos, sondern können dem Ranking der Website sogar schaden. Trotz des mittlerweile beachtlichen Informationsangebots durch dutzende Portale, Blogs und Seminare halten sich zahlreiche SEO-Mythen ziemlich hartnäckig. Es folgt also ein weiterer Versuch, drei Mythen endlich aus der Welt zu schaffen.

Mythos #1: Richtige Keyword-Dichte als wichtiger Rankingfaktor

Früher galt eine hohe Keyword-Dichte in Website-Texten als wichtiger Faktor für die Suchmaschinenoptimierung. Grund dafür waren deutlich einfacher gestrickte Algorithmen, welche die Häufigkeit eines Keywords mit der inhaltlichen Relevanz assoziierten. Anders ausgedrückt: Je häufiger das Keyword auf einer Website vorkam, desto relevanter war die Seite für ein bestimmtes Thema. Es dauerte nicht lange, bis Websitebetreiber diesen einfachen Faktor für sich nutzten und das sogenannte Keyword-Stuffing die Suchergebnisse dominierte.

Google steuerte dieser Entwicklung durch Algorithmus -Anpassungen entgegen – zwischenzeitlich galt eine Keyword-Dichte von einem bis drei Prozent als ideal. Heute ist dieser Faktor jedoch völlig veraltet und somit ein SEO-Mythos. Keyword-Stuffing kann sich sogar negativ auf das Ranking auswirken, wenn Google darin eine Beeinträchtigung der Nutzererfahrung erkennt. Das steht sogar explizit in den Qualitätsrichtlinien des Suchmaschinenbetreibers.

Natürlich sind Keywords immer noch der Grundpfeiler suchmaschinenoptimierter Inhalte. Schließlich muss man beispielsweise als Schuhverkäufer Google durch Keywords zu verstehen geben, dass sich die Website eben mit Schuhen beschäftigt. Der Algorithmus ist heute jedoch clever genug, um durch Synonyme und den Inhalt selbst zu erkennen, worum es auf der Seite geht.

Anhand dieses Irrtums zeigt sich jedoch sehr schnell, warum SEO so komplex ist. Denn in der Praxis gibt es immer noch Websites, die Keyword-Stuffing betreiben und damit in den Suchergebnissen relativ weit oben mitspielen. Denn einzelne Fehler bedeuten nicht, dass die Website gleich aus den Suchergebnissen verschwindet. Es kommt darauf an, wie nützlich die Seite für den Nutzer ist – das sagt sogar Google selbst. Dennoch sollte dieser Fehler natürlich gar nicht erst gemacht werden.

Mythos #2: Duplicate Content führt sofort zur Abwertung

Machen wir’s kurz: Es gibt laut Google-Richtlinien keine Duplicate-Content-Strafe. Die einzige Ausnahme stellen Versuche dar, Nutzer bewusst zu täuschen und Suchmaschinenergebnisse zu manipulieren. Abgesehen davon agiert der Algorithmus recht pragmatisch: Findet die Suchmaschine identische Inhalte auf mehreren Seiten, gibt sie in den Suchergebnissen nur eine davon aus – die anderen tauchen nicht auf. Denn Google möchte nur unterschiedliche Informationen indexieren und anzeigen. Welche Seite weshalb bevorzugt wird, ist nicht ganz klar. In der SEO-Welt geht man davon aus, dass die Rankingfaktoren hier eine Rolle spielen.

SEO Mythen 2

Google bezeichnet Duplicate Content als umfangreiche Inhaltsblöcke, die in identischer oder auffällig ähnlicher Form über mehrere Domains aufrufbar sind. Duplicate Content gibt es als interne und externe Vaiante. Intern bedeutet, dass dieselben Inhalte auf mindestens zwei Seiten einer Domain aufrufbar sind, zum Beispiel: www.website.de und www.website.de/index.php. Externer Duplicate Content ist dementsprechend unter mehreren Domains zu finden, etwa: www.website.de/geiles_beispiel.html und www.homepage.de/beispiele/sehr_geil.html.

Internen Duplicate Content können Website-Betreiber mithilfe von Kanonisierung steuern, also durch das Setzen von Canonical-Tags. Dadurch geben sie dem Crawler zu verstehen, welche Seite gerankt werden soll und welche nicht. Bei externem ist es schon etwas schwieriger. Im Worst-Case-Szenario „klauen“ fremde Websites die eigenen Inhalte und werden auch noch von Google bevorzugt. Dann hilft nur der Google-eigene Spam-Report oder das Einschalten eines Anwalts.

Mythos #3: Social Media Signale sind wichtig für SEO

Eine der hartnäckigsten SEO-Mythen – und dennoch falsch. Zwar nutzt Google durchaus so genannte Social Signals zur Ermittlung der Seitenqualität. Signale wie Likes und Shares bei Facebook oder Tweets und Retweets bei Twitter sind jedoch kein expliziter Rankingfaktor für den Google-Algorithmus. Das hat vor allem etwas mit dem mangelnden Datenzugriff sowie der schlecht messbaren Qualität zu tun.

Auf die größten und heute wichtigsten Sozialen Netzwerke wie Facebook, Twitter, Instagram und Co. hat Google schlichtweg gar keinen oder zumindest keinen strukturierten Zugriff (mit Ausnahme des mittlerweile eingestellten Google+). Viele Inhalte sind nicht öffentlich und selbst wenn sie es wären, müsste der Crawler beispielsweise Facebook vollständig inklusive sämtlicher Likes, Shares etc. durchforsten und qualitativ bewerten – ein Ding der Unmöglichkeit. Darüber hinaus legt Google bei der Bestimmung seiner Rankingfaktoren Wert auf Chancengleichheit. Social Media als Rankingfaktor festzulegen müsste also voraussetzen, dass jeder Websitebetreiber, jedes Unternehmen und jede Marke einen Social-Media-Account hat – was in der Realität nicht der Fall ist.

Dennoch ist es nicht sinnvoll, Social Media per se als unwichtig abzustempeln, auch wenn es keinen unmittelbaren Einfluss auf die Suchergebnisposition hat. Postings in Sozialen Netzwerken sorgen für Traffic auf der Website und können indirekte positive Effekte mit sich bringen. Wenn zum Beispiel Blogger über bestimmte Meldungen aus Facebook berichten, können dadurch Backlinks entstehen. Social-Media-Beiträge können außerdem ein Anlass dafür sein, dass Nutzer den Unternehmens- oder Markennamen suchen. Diese indirekten Faktoren führen möglicherweise langfristig zu einem besseren Ranking.

Weitere Beiträge

zum Autor

Lukas Schenk ist PR-Redakteur bei Sputnik. Während seines Volontariats in der Münsteraner Agentur unterstützte er vor allem die Teams Industrie sowie Transport & Logistik. Vor seinem Antritt bei Sputnik hat er Geschichte und Texttechnologie an der Universität Bielefeld studiert. Lukas war in dieser Zeit für eine regionale Tageszeitung tätig und sammelte Erfahrungen in den Bereichen Rundfunk sowie interne Unternehmenskommunikation.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.