Schlagwort-Archiv: Google

Thumbtack von Google abgestraft wegen unnatürlicher Backlinks

Geschätzte Lesezeit: 0 Minuten, 57 Sekunden

Thumbtack mit Penalty belegt

Obwohl Google als Investor an der Firma Thumbtack beteiligt ist, hat sich der Suchmaschinenanbieter es nicht nehmen lassen, Thumbtack wegen unnatürlicher Backlinks mit einer Penalty zu belegen.

Dies wurde am 08. Juni 2015 durch diverse Quellen bestätigt. Thumbtack hat zahlreiche Webmaster gebeten, Backlinks mit reichhaltigem Ankertext zu setzen und dafür extra eine ausführliche Anleitung für diese Links bereitgestellt.

Der Mitgründer von Thumbtack, Jonathan Swanson, bestreitet für solche Links Geld bezahlt zu haben. Das ist allerdings auch kein notwendiges Kriterium, damit Backlinks als unnatürlich angesehen werden!

Laut der Statistiken von SEMRush hat die Sichtbarkeit der Plattform erheblich abgenommen, was sich folgendermaßen darstellt:

SEMRush Statistik
Trafficrückgang laut SEMRush

Selbst der Suche nach dem Markennamen selbst bringt auf Google kein Suchergebnis. Früher sah die Trefferliste so aus:

Thumbtack Penalty
Thumbtack im Google Suchergebnis

Somit handelt es sich um eine massive manuelle Penalty, die von der Suchmaschine auferlegt wurde. Nun bleibt wohl kein anderer Weg, als einen massiven Linkabbau zu betreiben und danach einen Reconsideration Request einzureichen.

Update vom 14.09.2015: Die Suche nach thumbtack liefert als ersten Treffer die Website der gleichnamigen Firma (“Accomplish your personal projects”). Wäre auch verwunderlich, wenn erst 100 Millionen Dollar von Google in eine Company investiert werden, nur um sie danach aus dem Suchindex zu entfernen…


Wie hat Dir der Artikel gefallen?

Thumbtack von Google abgestraft wegen unnatürlicher Backlinks: 1 Stern2 Sterne3 Sterne4 Sterne5 Sterne 4,75 von 5 Punkten, basieren auf 4 abgegebenen Stimmen.
SEO Agentur Testsieger

Weitere Beiträge

SEO Texte richtig schreiben: 10 Tipps

Geschätzte Lesezeit: 5 Minuten, 3 Sekunden

Google ist in der Lage zu erkennen, ob ein Text einen Inhalt darstellt und grammatikalisch korrekt ist. Wird ein Text als nützlich für einen menschlichen Leser eingestuft, landet er im Ranking der Suchmaschinen weiter oben. 10 Tipps in diesem Beitrag zum Schreiben von SEO Artikeln und Online-Texten erleichtern diese Aufgabe.

SEO Tipps

10 effektive SEO Tipps für guten Content

Wir können fast garantieren, dass sich das Ranking verbessert, wenn die folgenden Hinweise beim Schreiben und Gestalten von Inhalten beherzigt werden. Hinter SEO Optimierung steckt keine Raketenwissenschaft, sondern das konsequente Anwenden bewährter Techniken. Als Marketing-Instrument sind optimierte Texte bestens geeignet, denn sie müssen sowieso erstellt werden und liegen voll in der eigenen Hand.

Viel Erfolg!

Tipp 1: Die richtige Gliederung

Den Text richtig gliedern erleichtert sowohl Lesern als auch Suchmaschinen, den Inhalt besser nachvollziehen zu können: Auf jeden Fall Überschriften und Unterüberschriften verwenden. Die Hierarchie in den Überschriften nicht durchbrechen, also keinen Ebene 3 Titel direkt nach Ebene 1 oder noch schlimmer, als erstes. Statt dessen genau eine Hauptüberschrift und mindestens 2 Unterüberschriften (Level 2). Pro Level dann eine oder mehrere Subtitel, deren Level eins niedriger ist.

Tipp 2: Content is King

Spätestens seit dem Google Update Hummingbird verstehen auch Suchmaschinen ziemlich gut, ob ein Text einen wertvollen Inhalt besitzt oder nicht. Aber ungeachtet dessen sollte der Content insbesondere für den Leser interessant und nützlich sein. Leser, die gleich wieder abspringen, erzeugen eine hohe Bounce Rate und die ist nicht gut für die Vermarktung der Website.
Kleiner Geheimtipp am Rande: Eigentlich ist Content nicht King, sondern Bundeskanzler!

Tipp 3: Die Textlänge

Gelegentliche Kurzartikel stören das Gesamtbild nicht, wenn darauf geachtet wird, dass Hauptinhalte eine ausreichende Länge von mindestens 300 Wörtern besitzen, besser mehr. Richtig gute Artikel sind auch schon mal 800 Worte lang. Texte unterhalb von 150 Worten sollte man lieber in einer extra Rubrik veröffentlichen, aber nicht auf Landing Pages oder Infoseiten.

Tipp 4: Ausrichtug auf ein einzelnes Keyword

Die Optimierung einer Seite sollte für je ein zentrales Keyword erfolgen, welches auch Fokus Keyword genannt wird. Es macht wenig Sinn, eine HTML Page für mehr als ein Keyword durchzudeklinieren. Statt dessen pro Keywords, egal ob Short Head oder Long Tail, eine eigene Seite aufbauen. Hier zur Veranschaulichung einige wichtige Kriterien das Fokus Schlüsselwort betreffend:

Hauptsuchbegriff
Focus Keyword

Ansonsten kannibalisieren sich zwei thematisch ähnliche Pages selbst, indem sie in Konkurrenz zueinander treten. Die Folge ist abströmender Link Juice. Statt beispielsweise einem Treffer unter den Top 10 hat man dann zwei Treffern, jeden davon auf einem niedrigen Rang wie 30 oder ähnlich.

Noch einmal auf den Punkt gebracht: Die Wahl der richtigen Schlüsselworte bzw. der Suchbegriffe, für die man die zu optimierende Website gerne oben im Ranking sehen möchte, ist fundamental. Zuerst kommt also die Recherche nach erfolgversprechenden Begriffen. Das sind solche, die halbwegs oft gesucht, aber nicht zu viel Konkurrenz haben. Sogenannte Nischen sind für Einsteiger die beste Wahl, wenn sie die Wahl haben (bei Unternehmen ist eine beliebige Ausrichtung sicher nicht möglich). Wichtig aber immer: Der Leser muss den Text auch mögen, nicht nur die Suchmaschine! Also immer einen Zusatznutzen schaffen, keine platten Inhalte bereitstellen.

Tipp 5: Ein Content Management System verwenden

Der Vorteil bei der Nutzung eines CMS ist der enorme Komfort, mit dem SEO Texte erstellt werden können. WordPress ist das beliebteste Autorensystem und bietet mit zahlreichen SEO Plugins eine enorme Arbeitserleichterung. Wir empfehlen Webmastern dringend, ein solches Content Management System zu verwenden, es erleichtert die Arbeit bei der Content Erstellung und der Suchmaschinenoptimierung ganz erheblich. Für SEO gibt es einen de facto Standard für WordPress, und das ist das SEO Plugin von Yoast. Allerdings ersetzt ein solches Plugin niemals manuelle Arbeit oder gar Nachdenken! Vielleicht hilft das Studium des ein oder anderen Buchs zum Thema, um selbst ein Experte auf dem Gebiet zu werden!

Tipp 6: Kein Keyword Stuffing betreiben

Durch diverse Google Updates in der Vergangenheit wurde dieses Thema endgültig vom Tisch genommen. Es bringt rein gar nichts, ein Keyword immer und immer wieder zu wiederholen, Google straft das ganz massiv ab. Zumal Hummingbird dann über den Knowledge Graph erkennt, dass der Gesamtinhalt nicht relevant besonders ist. Siehe auch unseren Artikel zu den Google Updates.

Besser ist eine vernünftige Häufung von Keywords. Man sollte beachten, dass auch Synonyme wie das Originalkeyword gezählt werden können! Im Vordergrund jedes guten Textes sollte zudem das Schaffen von Mehrwert sein, sowohl für User als auch für Search Engines! Wem das schreiben nicht leicht von der Hand geht, sollte einen Texter beauftragen oder einen guten Freund finden, der mehr Talent dafür hat!

Tipp 7: Interne und externe Links einbauen

Wichtig ist das richtige Verhältnis von internen Links, die auf Seiten der eigenen Domain zeigen und externen Links, die auf Drittseiten verweisen. Eine Seite besitzt eine maximale Linkpower, die auf die vorhandenen Links aufgeteilt wird. Es bringt allerdings nichts, nur einen Link zu setzen, denn das ist zu wenig. Gut sind mehrere interne und weniger externe Links. SEO Tools helfen hier bei der Entscheidung.

Tipp 8: Meta-Tags richtig einsetzen

Die Meta Description auf jeden Fall befüllen. Am besten eine Textlänge von mindestens 120 Zeichen, maximal aber von 156 Zeichen wählen. Weiterhin das Meta Tag Keywords nicht mehr verwenden, es hat keine Bedeutung mehr, weil es sehr leicht für Webspam zu missbrauchen ist. Ebenfalls wichtig ist die Bezeichnung des Permalinks, das wäre ein extra Tipp!

Neben den bekannten und auch manuell schon einmal gerne direkt im HTML-Text angebrachten Meta-Informationen gibt es zahlreiche weitere. Hier zur Illustration der Auszug aus einer Seite von ERFOLGSREZEPTE ONLINE:

Metatags
Meta-Tags einer Webseite

Tipp 9: Mindestens ein Bild verwenden

Guter Content lebt auch von Bildern (oder Videos). Mediendatein werten einen Text nicht nur aus Sicht des Lesers, sondern auch aus Sicht der Suchmaschine erheblich auf. Dabei den vorigen Tipp beachten: Meta-Tags, Titel und Beschreibung des Bildes passend wählen! Siehe hierfür auch Bilder und Videos als OnPage SEO Kriterium.

Tipp 10: Lesbare Texte schreiben

Der sogenannte Flesch-Wert misst, wie leicht verständlich ein Fließtext für den menschlichen Leser wahrscheinlich ist. Wahrscheinlich, denn woher soll ein maschineller Algorithmus wirklich wissen, wie gut ein Mensch einen Text wahrnehmen kann. Daher im Fließtext eine Schreibweise wählen, die schnell verstanden wird. Keine zu stark verschachtelten Sätze schreiben. Ebenso nicht zu viele Unterbrechungen durch Aufzählungen, Bilder oder Formatierungszeichen vorsehen.

Mittlerweile wird der Flesch-Wert auch vom populären WordPress SEO Plugin von Yoast unterstützt und fließt mit in die Bewertung des Contents im Texteditor ein. Besonders hilfreich, wenn man optimierte SEO Artikel verfassen möchte! Der Lesbarkeitswert eines Artikels wird durch eine ganze Zahl angegeben:

flesch reading score
Flesch Lesbarkeitswerte

Jeder Webmaster sollte sich diese Zahl zu Herzen nehmen und seine Webseiten daraufhin analysieren. Das geht schnell und ist insbesondere vor Beginn der Optimierung notwendig.

SEO Texte: Zuerst die einfachen Maßnahmen

Ein großes Optimierungspotential versprechen die relativ einfachen OnPage Maßnahmen, die oben genannt wurden. Erst wenn diese grundlegenden Dinge erledigt sind, sollte man sich mit tiefer gehenden SEO Strategien befassen. Beispielsweise macht es erst Sinn, sich über Growth Hacking Gedanken zu machen, wenn potentielle Besucher auch interessante Inhalte auf der beworbenen Website vorfinden können! Einen Textbroker kann sich jeder sparen, der die deutsche Sprache gut beherrscht und Spaß am Schreiben von SEO Artikeln hat.

Weitere Tipps zur Search Engine Optimization und Online-Marketing gibt es im SEO-Bereich.

Suchmaschinen-Optimierung: Das umfassende Handbuch

€ 39,90
9.2

Praxiswert

9.3/10

Verständlichkeit

8.7/10

Umfang

9.8/10

Preis

9.0/10

Vorteile

  • Extrem umfangreich
  • Insider-Wissen
  • Für Fortgeschrittene & Profis
  • Tolles Nachschlagewerk

Nachteile

  • Nur teils für Anfänger

Wie hat Dir der Artikel gefallen?

SEO Texte richtig schreiben: 10 Tipps: 1 Stern2 Sterne3 Sterne4 Sterne5 Sterne 5,00 von 5 Punkten, basieren auf 8 abgegebenen Stimmen.

Weitere Beiträge

SEO: Wahl des Webhosting Providers beeinflusst Rankings

Geschätzte Lesezeit: 2 Minuten, 12 Sekunden

Die Geschwindkeit, mit der eine Webseite aufgebaut wird, ist ein wichtiger Ranking-Faktor und bares Geld wert. Offpage Maßnahmen dieser Art werden oft vernachlässigt. Es kommt eben doch darauf an, ob eine Webseite in 300 oder in 400 Millisekunden aufgebaut wird, so unglaublich das klingt.
Hosting
Wenn es um die Optimierung einer Website für Suchmaschinen wie Google geht, denken viele zuerst an Onpage Maßnahmen wie die Ausrichtung des Textes an ein bestimmtes Keyword, die Wahl der Meta-Beschreibung oder auch die Struktur des Inhalts. Mittlerweile ist Webhosting zum entscheidenden SEO Rankingfaktor geworden, der nicht unterschätzt werden darf.

Für Suchmaschinen relevante Leistungsmerkmale beim Webhosting

Eine schnelle Internetverbindung hat heutzutage fast jeder, zumindest im privaten Bereich. Günstige Hosting Pakete bei Webspace Providern stehen dem allerdings entgegen, denn die Geschwindigkeit lässt oft zu wünschen übrig. Und das ist schlecht, wenn man im SEO Bereich erfolgreich sein will. Denn seit einiger Zeit misst Google die Page Speed, also die Zeit die es dauert bis eine Seite aufgebaut ist.

Unter anderem ist diese Kenngröße wichtiger geworden wegen der steigenden Anzahl mobiler Endgeräte wie Smartphone und Tablets, die nicht immer über eine perfekte Netzwerkanbindung verfügen. Weiterer Grund ist die exponentiell steigende Datenmenge, die von Suchmaschinen indiziert werden muss.

Damit dieser als Crawling bezeichnete Vorgang nicht unnötig ausgebremst wird, fordert Google eben eine kurze, möglichst optimierte Ladezeit. Die schnellebige Zeit führt außerdem dazu, dass viele User genauso hektisch wie verwöhnt sind und schon nach einer Sekunde Wartezeit ungeduldig werden.

Kriterien bei der Auswahl des Hosting Providers

Leider gibt es von den Hostern keine offizielle Angabe darüber, wie gut ihre Rechenzentren effektiv ans Netz angeschlossen sind. Gute Provider bieten hier eine ausreichend gute Netzwerkanbindung, so dass dieser Faktor meist kein Differenzierungsfaktor ist.

Ausschlag gebend ist aber insbesondere die Geschwindigkeit des Servers, auf dem eine Webpräsenz liegt. Vor allem bei den günstigen Tarifen befinden sich mehrere Kunden des Hosters auf demselben physischen Rechner. Ihnen wird über Virtualisierung ein eigenständiger logischer Adressraum zugeteilt. Diese virtuellen Umgebungen sind starken Schwankungen in der Leistungsfähigkeit unterworfen und keinesfalls für eine professionelle Webseite geeignet, die schnell aufgebaut sein will.

Besser sind dedizierte PC Systeme, das sind eigenständige Root Server mit vollem Zugriff und maximaler Leistungsfähigkeit. Wer sich davor scheut, einen Root Rechner selbst zu installieren oder zu konfigurieren und Sicherheitsaspekte im Auge zu behalten, der sollte zu Managed Servern tendieren. Das sind vorkonfigurierte Rechner, die der Webhoster regelmäßig mit aktuellen Sicherheitsupdates versorgt.

Sobald ein Server in die Knie geht, also die Prozessorlast in die Höhe schnellt, sinkt auch die Antwortgeschwindigkeit, was zu höheren Response Zeiten führt. damit das nicht passiert, sollte man vor allem darauf achten, dass genügen RAM vorhanden ist. Der Hauptspeicher ist heutzutage eine entscheidende Ressource für die Leistungsfähigkeit eines Webservers. Der Prozessor spielt fast keine Rolle mehr, seitdem die Preise für gute CPUs mit mehreren Kernen und hoher Taktfrequenz sehr niedrig sind.

Weitere Ressourcen


Wie hat Dir der Artikel gefallen?

SEO: Wahl des Webhosting Providers beeinflusst Rankings: 1 Stern2 Sterne3 Sterne4 Sterne5 Sterne 4,80 von 5 Punkten, basieren auf 5 abgegebenen Stimmen.

Weitere Beiträge

Was ist White Hat SEO ?

Geschätzte Lesezeit: 3 Minuten, 54 Sekunden

Als White Hat SEO werden Maßnahmen der Suchmaschinenoptimierung bezeichnet, die ausdrücklich von Suchmaschinen als konstruktiv und hilfreich angesehen werden. Im Gegensatz dazu steht der Begriff Black Hat SEO, der unlautere Aktivitäten beinhaltet.

Was ist White Hat SEO

Was bedeutet White Hat SEO konkret?

Ganz allgemein bedeutet White Hat SEO, seine Website so zu gestalten, dass jeder Besucher einen möglichst hohen Nutzen davon hat. Das ist mehr oder weniger äquivalent damit, die Google Webmaster Richtlinien einzuhalten, die einige Dinge wie das Tarnen von Links, auch als Link Cloaking bezeichnet, verbieten, um das Ranking zu pushen. Laut Wikipedia ist damit ein ethisch vertretbares Handeln gemeint.

White Hat SEO beinhaltet ganz konkret das Optimieren von Content für den menschlichen Leser und nicht für Search Engines. Der Content sollte ein bestimmtes Thema behandeln und möglichst viele gute Informationen liefern. Dabei steht es zunächst nicht im Vordergrund, den Text für ein bestimmtes Keyword zu optimieren, sondern den User im Idealfall glücklich zu machen. White Hat SEO ist also eher eine langfristige Investition in die Zukunft und nicht auf kurzfristige Erfolge ausgelegt.

Alles, was als Black Hat Technik bezeichnet wird, ist logischerweise nicht White Hat, also u.a. das Kaufen von Backlinks oder das Überoptimieren eines Beitrags, so dass er im Ranking von Suchmaschinen möglichst weit oben auftaucht.

Macht White Hat SEO Sinn?

Dei eindeutige Antwort lautet selbstverständlich! White Hat SEO beinhaltet viele Techniken, die generell sinnvoll sind. Das sind zum einen Onpage Optimierungen für Suchmaschinen und zum anderen Offpage Arbeiten, um die Popularität der eigenen Domain zu steigern. Eine Suchmaschine wie Google oder Bing ist heute sehr wohl in der Lage, unlautere Onpage Codes zu erkennen, wie etwa versteckten Text oder Keyword Stuffing, also das übermässige Verwenden und Wiederholen von Keywords.

Google Updates

Nicht zuletzt wegen des jüngsten Google Updates namens Phantom sollte man davon ausgehen, dass nicht nur die einfach zu durchschauenden unlauteren oder zwilichten Maßnahmen gefährlich sind und es nur eine Frage der Zeit ist, bis sie entdeckt werden. Mit dem Penguin Update hat Google die Bedeutung von Backlinks beispielsweise massiv beschnitten, weil Webspam dazu führte, dass diese Links an Wert verloren haben.

Google Updates
Eingeführte Konzepte in die Google Suche

In der Grafik sind die wesentlichen Fortschritte gezeigt, die Google durch Einführung neuer Konzepte in die Suche erreicht hat. Guter Content hat es somit leichter, Spam zum Glück schwerer, an die Spitze zu kommen.

Geduld haben

Ganz wichtig ist meiner Meinung nach, dass man ein Verständnis dafür entwickelt, dass nicht jede Maßnahme sofort zum Erfolg führen kann und wird! Nachdem die Webseite und die relevanten Texte angelegt und optimiert wurden, heisst es erst einmal abwarten. Der umtriebige Webmaster wird allerdings nicht auf ein Wunder hoffen, sondern die Zeit nutzen, um seine Inhalte in sozialen Medien oder über Newsletter bekannter zu machen. Denn externe Verweise auf die eigene Domäne sind mit das wichtigste Kriterien.

Backlinks

Ein Verweis ist übrigens nicht immer ein Backlink: Ein Post auf der Facebook-Seite, die Du hoffentlich für Deine Webpräsenz angelegt hast, wertet Deine Domäne indirekt auf, denn der Link über Facebook steht ja schon! In einem Fall rankte ein Google+ Beitrag von uns auf Platz 4 der Google Trefferliste, während der eigentliche Beitrag gar nicht unter den Top 10 zu finden war!

Generell sind Backlinks hilfreich, wenn sie White Hat sind, also auf saubere Art und Weise zustande kommen. Ferner muss die verlinkende Domäne auch eine halbwegs gute Reputation haben. Ist die Quellseite hingegen negativ von Suchmaschinen eingestuft, färbt das auf das Verweisziel auch negativ ab. Alltägliche Seiten, an denen niemand inhaltlich und optisch etwas auszusetzen hat, sind für White Hat Links jedenfalls bestens geeignet.

Content Qualität

Noch eine kleine Geschichte: Es mussten erst einige Monate vergehen (ca. ein halbes Jahr), bis unser Affiliate Modell halbwegs profitabel war. Erst dann gab es genügend Impressionen und Klicks auf Links. Viel wichtiger aber war die relativ hohe Konvertierungsrate: Sie lag dann bei knapp 10%, jeder 10. Klick auf einen Verweis führte also zu einem Lead. Das ist in erster Linie ein Thema, das mit der Qualität des Contents zu tun hat und nicht mit reinen White Hat Maßnahmen.

Nimm’ nicht an, Du erhältst etwas geschenkt, sondern arbeite an Deinem Erfolg!

Was schließt White Hat SEO aus?

Neben den oben genannten kritischen Methoden ist insbesondere das Thema Spam in all seinen Ausprägungen zu vermeiden, insbesondere ist eine Optimierung über solch unerwünschte Methoden auszuschließen. Sei es Link Spam durch sehr häufiges Setzen von Verweisen oder das Webspamming durch Backlinks, die etwa über Blog Kommentare künstlich generiert werden, auf die eigene Site.

Keine Überoptimierung

Außerdem darf der Inhalt auf einer Website nicht zu stark auf ein Keyword bezogen sein, so dass der Besucher außen vor ist, wenn es nur um Search Engine Optimization geht und die Keywords im Vordergrund stehen und nicht die Information.

Bei der Gestaltung einer Web Page sollten die Richtlinien von Suchmaschinen nicht verletzt werden, sie müssen allerdings auch nicht absolut strikt eingehalten werden. Ein bisschen Kreativität beim Einsatz der Methoden ist erlaubt, aber eben nicht mehr. Ansonsten ist es nicht mehr White, sondern Black SEO.

Weiterführende Informationen

Für Search Engine Optimization Interessierte gibt es auch einen Artikel auf ERFOLGSREZEPTE ONLINE zur Funktionsweise von Black Hat SEO.

Wir empfehlen insbesondere, bewährte SEO Techniken anzuwenden, um den Traffic auf die eigene Webseite zu erhöhen.

Gute Suchmaschinenoptimierung bekommt man nur mit der Unterstützung von geeigneten Tools hin, daher empfehlen wir dringend diese einzusetzen.

Wer sich weiterbilden möchte, sollte zum Buch Top-Rankings bei Google und Co.: Erfolgreiche Suchmaschinen-Optimierung von Kim Weinand greifen und sich inspirieren lassen.

Erfolgreiche Websites: SEO, SEM, Online-Marketing, Usability

€ 39,90
9.3

Praxiswert

9.6/10

Verständlichkeit

9.2/10

Umfang

9.6/10

Preis

8.9/10

Vorteile

  • Zahlreiche Praxisbeispiele
  • Viele wichtige Themen
  • Über 900 Seiten stark
  • Sehr aktuell
  • Infos zur Online Monetarisierung

Nachteile

  • Buch ist schwer

Wie hat Dir der Artikel gefallen?

Was ist White Hat SEO ?: 1 Stern2 Sterne3 Sterne4 Sterne5 Sterne 4,89 von 5 Punkten, basieren auf 9 abgegebenen Stimmen.

 

Weitere Beiträge

SEO Browser – so sieht Google Deine Website

Geschätzte Lesezeit: 4 Minuten, 44 Sekunden

Ein SEO Browser Tool zeigt eine Website so an, wie Suchmaschinen sie wahrnehmen. Der Browser zeigt Link-Informationen, das SERP-Snippet, Kopfzeilen und den nackten Content an. Sehr nützlich um Onpage Maßnahmen zur Suchmaschinenoptimierung abzuleiten.

Donkey Cutts SEO Browser
Das Bild zeigt das Ende des ersten Level des eher spaßigen als nützlichen SEO Browser Game Donkey Cutts, benannt nach Google SEO Guru Matt Cutts, der für zahlreiche Google Updates verantwortlich gemacht wird.

Wozu ein SEO Browser ?

Eine Suchmaschine nimmt den Inhalt inklusive Metadaten einer Webseite anders wahr als ein menschlicher Leser. Die Wahrnehmung einer Seite ist aber entscheidend für den Suchalgorithmus, der auch das Ranking der Site bestimmt. Also ist es sehr hilfreich, für die eigene Domain herauszufinden, wie Google diese sieht und daraus SEO Maßnahmen zur Optimierung abzuleiten.

Kostenlose SEO Browser

Es gibt ein paar kostenlose SEO Browser, die wir im folgenden in ihrer Funktionsweise gerne vorstellen und die helfen, den Bedarf für Onpage Marketing Aktivitäten zu erkennen.

Browseo aus Deutschland

Nach dem Aufruf von Browseo und der Eingabe einer URL generiert das Tool eine Ausgabe, in der folgende Elemente angezeigt werden:

  • Antwort-Code (Response Code, 200 = OK)
  • Anzahl Wörter, Anzahl interner und externer Links sowie nofollow Angaben
  • Preview des SERP Schnipsels
  • Hierarchie der Kopfzeilen
  • Anzeige des Raw Content der Seite, also unter Entfernen aller möglichen Layout Anweisungen

Weiterhin gibt es eine Funktion, die Check for Cloaking Attempt heisst und prüft, ob ein menschlicher Besucher dieselben Page Links präsentiert bekommt wie der Crawler bzw. Roboter einer Suchmaschine. Sollte das nicht der Fall sein, liegt ein Hinweis auf Page Spam vor.

Search Spider Simulator Tool

Dieses Online Werkzeug ist etwas anders das eben vorgestellte. Es heisst Spider Simulator Tool und indiziert eine Seite so, wie es eine Suchmaschine tun würde, so viel ist gleich zu Browseo. Allerdings ist die Ausgabe des Robots deutlich anders:

SEO Browser
Spider Simulator Tool

Oben gibt der Spider die Meta Informationen aus, übrigens ist hier nicht ohne Grund zu sehen, dass keine Keywords angegeben sind. Denn das Meta namens Keywords ist seit einiger Zeit in der Suchmaschinenoptimierung ohne Bedeutung, das nur als kleiner Tipp a Rande.

Danach folgt allerdings eine recht coole Anzeige des nackten Contents der Site, also komplett ohne HTML Markup Daten, so wie Robots sie crawlen. Leider kann dieses englische Tool keine deutschen Umlaute verarbeiten, sonst würde es noch mehr Laune machen!

Die internen und externen Links werden jeweils einzeln aufgelistet, pro Link wird der Anchor Text mitangezeigt, nofollow Angaben gibt es keine. Diese Liste von Links ist sehr übersichtlich und zeigt einem direkt, welche Verweise vorhanden sind und welche Ankertexte doppelt oder mehrfach vorkommen oder bzgl. SEO optimierungswürdig sind. Man sollte bei den Ankertexten den Keyword Bezug für Suchmaschinen nicht aus dem Auge verlieren.

Domaintools SEO Browser

Dieses Tool liefert eine Art WhoIs Record für eine Domain und zeigt alle erdenklichen Angaben an, die öffentlich verzeichnet sind:

SEO Tool
Domain Tools SEO Browser

Zu jedem dieser Infos, wo der Pfeil nach rechts steht, gibt es weitere Aktionsmöglichkeiten. So kann etwa ein Reverse Whois mit diesem Tool durchgeführt werden. Der Site Title sowie die Anzahl eindeutiger Terme wird auch angezeigt, das entspricht zwar keiner Keyword Analyse, ist aber ein erster Indikator. Den SEO Score sollte man nicht ganz so ernst nehmen, die Website liefert keinerlei Erklärungen dazu und wir sind zwar stolz auf unsere Webseite, aber 99% sind doch etwas viel des Guten 😉

SEOquake Browser Plugin

Bei SEOquake handelt es sich um ein sehr mächtiges Plugin für Google Chrome und Mozilla Firefox. SEOquake bietet extrem viele Funktionen, darunter eine Toolbar, die neben dem PageRank auch andere Daten wie die Anzahl der indizierten Seiten, das Alter der Domäne, die Anzahl der Text Links (SEMrush), die verlinkenden Domains, den Bing Index und den Alexa Rank in Kurzform anzeigt:

SEOquake Browser Plugin
Die SEOquake Toolbar

Jede Info ist klickbar und öffnet in einem neuen Tab eine Site mit vielen Detailinfos. Man kann sich auch sehr schön die Keyword Dichte auf einer eigenen Seite ausgeben lassen. SEOquake untergliedert dabei die Keywords nach der Anzahl der enthaltenen Terme, gibt an wo das Keyword gefunden wurde (Titel, Domainname, Meta Keywords), wie oft es im Content vorkommt, mit welcher Dichte in Prozent und der Prominenz. Letzteres ist wohl so etwas wie die WDF*IDF Kennzahl.

Sehr hilfreich ist auch die Diagnose Funktion der Toolbar, die auch leicht umzusetzende Hilfestellungen gibt welche Maßnahmen für die Suchmaschinenoptimierung angebracht sind:

SEO Advice
Hinweise der SEOquake Toolbar

Der SEO Browser

Dieses free Tool heisst seo-browser.com. Es ist kostenlos und ohne Registrierung möglich, die Software zu nutzen, man muss aber nach Eingabe seiner URL den Button Simple drücken und nicht Enter! Danach erscheint eine Ansicht der HTML Seite so, wie Google sie wahrscheinlich auch wahrnimmt.

Interne Darstellung
Ansicht einer Website aus Sicht einer Suchmaschine

Insgesamt nichts wirklich Aufregendes, aber dennoch erstaunlich für den menschlichen Betrachter . Das schöne ist, dass man den Check für eine verlinkte Seite direkt ausführen kann, indem man im Browser auf den hervorgehobenen Link im Analyse Output des Browsers klickt. Das beschleunigt die Marketing Arbeit ungemein.

Der Google Cache

Google selbst bietet eine etwas versteckte Möglichkeit an, die Version einer Webseite abzurufen, so wie sie im Cache der Suchmaschine selbst gespeichert ist. Dazu muss man den Steuerbefehl cache: verwenden. Am einfachsten funktioniert das, indem man die Google URL wie folgt aufruft:

http://google.com/search?q=cache:www.erfolgsrezepte-online.de

Die www-Adresse muss natürlich entsprechend angepasst werden. Es kann sein, dass die gewünschte Website nicht im Cache von Google ist, in diesem Fall wird ein Fehler ausgegeben. Wer die nackten Daten samt Meta Informationen sehen will, der kann folgende URL aufrufen:

https://developers.google.com/structured-data/testing-tool

Für die eingegebene URL wird dann der rohe HTML Text zurückgeliefert samt Meta Daten inklusive hAtom Angaben, LocalBusiness, Organization und auch Fehlermeldungen und Hinweisen, die beim Crawlen erkannt wurden.

Weitere SEO Ressourcen

Die genannten Tools helfen enorm beim Optimieren der eigenen Webseite. Man sollte nicht vergessen, dass neben lokalen Site Optimierungen auch Dinge wie der PageRank eine Rolle spielen, ebenso die Anzahl der Besucher auf einer Seite sowie die Aktivitäten in sozialen Medien. Insbesondere misst eine Search Engine wie Google, wie viele Likes eine Facebook-Seite, die für eine bestimmte Website steht, erhalten hat!

Ein paar weitere Ressourcen für alle, die tiefer einsteigen möchten:

Unsere Buchempfehlung zum Thema SEO für alle, die erfolgreicher mit ihrer Webseite werden möchten:

Guerilla SEO: Do It Yourself: Schritt-für-Schritt-Anleitung für alle mit eigener Homepage

€ 15,84
8.9

Praxiswert

9.3/10

Verständlichkeit

9.7/10

Umfang

8.0/10

Preis

8.6/10

Vorteile

  • Ausgewiesenes Praxisbuch
  • Für Anfänger geeignet
  • Sehr verständlich geschrieben
  • Schnelle Infos
  • Unterhaltsam

Nachteile

  • Erfordert Mut

Wie hat Dir dieser SEO-Artikel gefallen?

SEO Browser – so sieht Google Deine Website: 1 Stern2 Sterne3 Sterne4 Sterne5 Sterne 4,80 von 5 Punkten, basieren auf 5 abgegebenen Stimmen.

 

Weitere Beiträge

Black Hat SEO Maßnahmen

Geschätzte Lesezeit: 5 Minuten, 24 Sekunden

Spätestens seit dem Google Update namens Penguin ist Black Hat SEO in aller Munde. Bzw. seitdem ist es nicht mehr ohne weiteres möglich, diese etwas zwielichten SEO Techniken anzuwenden. Dieser Bericht klärt auf über die Funktionsweise und gibt Tipps, welche Prinzipien des Black Hat SEO gefahrlos verwendet werden können.

Black Hat SEO Maßnahmen

Was ist Black Hat SEO?

Jede Webseite steht anfangs vor dem Problem, im Ranking der Suchmaschinen nach oben zu kommen. Herkömmliche Methoden dauern recht lange und sind nicht immer erfolgsversprechend. Also haben sich manche daran gemacht, Google & Co. vorzugaukeln, die jeweilige Website wäre relevanter als sie es in Wirklichkeit ist. Und das wurde mit Black Hat SEO Techniken bewirkt. Insbesondere bedeutet das, die Richtlinien von Suchmaschinen absichtlich zu verletzten, um die Optimierung auf die Spitze zu treiben.

Das bedeutet konkret, man hat sich eher um SEM gekümmert, also um das Suchmaschinenmarketing, welches in Abgrenzung zum SEO hauptsächlich sogenannte Offpage Optimierungen für Suchmaschinen ins Auge fasst.

Offpage Maßnahmen

Eine Offpage Optimierung bezieht sich darauf, dass man versucht, die eigene Seite von außen zu promoten. Das ist an sich nicht verboten oder anrüchig. Aber Black Hat SEO greift in diesem Fall auf eher eigennützige Methoden zurück.

Wenn eine SEO Agentur Top Rankings für eine zu optimierende Webseite verspricht, dann wendet sie oft Black Hat Maßnahmen an und umgeht die Ranking Richtlinien. Man sollte sich vorher genau über diese Agentur informieren, bevor man sie bucht. Denn gelegentlich führen solche SEO Maßnahmen eben auch zu Penalties für eine URL statt zu positiven Effekten in den SERPs.

Backlinks Erzeugung

Anstatt sich Backlinks im Laufe der Zeit durch Marketing Maßnahmen hart zu erarbeiten, nämlich, indem fremde Webseiten von sich aus auf die eigene Webpräsenz verlinken, baut man selbst solche Schattenseiten auf. Früher war das eher unter dem Begriff der Signposts oder Doorway Pages bekannt. Eine solche Doorway ist eine nahezu leere Seite, auf der lediglich der gewünschte Backlink untergebracht war.

Doorway Page Graph
Doorway Page

Die Sache mit dem URL Signpost hat Google schnell spitz gekriegt und so musste die SEO Community weiterziehen und sich was Neues ausdenken. Herausgekommen ist, sich eben eigene Domänen zu mieten, dort Schlüsselwort-optimierten Content zu hinterlegen und eben den Backlink auf die zu fördernde Seite zu setzen.

Das geht seit einiger Zeit sehr gut und schnell, weil

  1. Webspace und Domänen fast für geschenkt zu haben sind (siehe die besten und günstigsten Hoster für Webspace),
  2. Content Management Systeme wie WordPress schnell und komfortabel den Aufbau von Webpräsenzen mit viel Content erlauben (u.a. mit Hilfe von Plugins),
  3. Plugins wie Yoast es einem effizient erlauben, zielgerichtet Content für einzelne Fokus-Keywords zu schreiben.

Keyword Stuffing

Ein weiterer Bestandteil von Black Hat SEO, der natürlich nicht mehr funktioniert, ist das sogenannte Keyword Stuffing. Das Prinzip ist einfach, es wurde versucht, das Fokusschlüsselwort möglichst oft im Text unterzubringen.

Focus Keyword
Das Fokus Keyword richtig einsetzen

Die Reaktion der Suchmaschinen war, dass ein zu häufiges Vorkommen eines Suchbegriffs mit einer Strafe belegt wurde. Aktuell ist es sogar so, dass der Meta-Tag keywords, der früher eine große Bedeutung hatte, unter den Maßnahmen zur Suchmaschinenoptimierung mittlerweile gar nicht mehr relevant ist.

Getarnte Links: Cloaking

Als Cloaking bezeichnet man das Tarnen von externen Links als interne. Das geht im Prinzip ganz einfach, indem ein interner Link in Wirklichkeit auf eine externe Website verweist und nicht auf eine der eigenen Domain.

Allerdings macht Cloaking auch außerhalb von Black Hat SEO Maßnahmen als Marketing Instrument Sinn, wenn es etwa darum geht, das Verhalten der Benutzer zu tracken und Bounce Rates, also unerwünschte Absprünge, ausfindig zu machen und zu reduzieren.

Versteckter Text

Auch Dinge wie das Unsichtbarmachen von Text, der das entsprechende Keyword promoten soll, indem etwa weißer Text auf weißem Grund geschrieben steht oder indem CSS-Anweisungen wie display:none verwendet werden, funktionieren heute bekannterweise nicht mehr um eine Suchmaschine zu beeinflussen.

Das Gegenteil von Back Hat SEO ist das sogenante White Hat SEO, welches sich für die Ssuchmaschinenoptimierung auf Tools und Techniken stützt, welche explizit von Google, Bing und anderen genehmigt oder sogar selbst bereitgestellt wurden.

Künstlicher Traffic

Darunter versteht man das künstliche Erzeugen von Verkehr auf der Webseite. Dazu gehören sowohl Seitenaufrufe als auch Klicks auf Links. Der Sinn dieser Maßnahme ist die Manipulation von Statistiken, wie sie Google Analytics erstellt. Insbesondere im Affiliate Marketing spielen die Zugriffszahlen eine Rolle. Oft wird sogenannter artificial traffic durch das Tor Netzwerk erzeugt. Die Gefahr dabei ist, entdeckt und danach möglicherweise aus dem Suchergebnis verbannt zu werden.

Wie macht man sich Black Hat SEO zu nutze?

Als erstes ist es wichtig zu erkennen, dass man die offensichtlich abgestraften Online Marketing Methoden bitte nicht verwendet. Denn per se ist alles, was unter dem Begriff Blackhat SEO zusammengefasst wird, gefährlich und kann schnell negative Effekte hervorrufen.

Toolboxen

Auch sogenannte Blackhat Tools für den SEO Bereich sollte man als Webmaster mit Vorsicht oder gar nicht einsetzen. Wie aus dem Phantom Update bekannt, können schlechte Backlinks schnell zum Problem werden. Das Entfernen dieser unerwünschten Verweise mit Hilfe des Link Detox ist ein aufwändiges Verfahren.

Schlechte Links entschärfen
Link Detox ist wie klinische Behandlung

Was man aber tun kann, ist der behutsame und langsame Aufbau von Blacklinks über die Suchmaschinenoptimierung auf eigenen Domains, ohne Spam zu produzieren. Das bedeutet: Man mietet neue Domains, die vorher auch noch nicht vergeben waren und achtet darauf, dass die Domänennamen das zu bewerbende Schlüsselwort enthalten.

Inhalte generieren

Dann stellt man Content auf diese Domäne und zwar reichlich Inhalt, nicht nur 600 Worte oder so. Schließlich sorgt man dafür, dass Google diese neue Domäne indiziert (am besten durch Querreferenzieren von einem Facebook- oder Twitter-Account). Und schließlich ergänzt man den Content auf jener Domäne alle paar Tage oder Wochen, je nach zeitlichen Möglichkeiten.

Man kann dann hergehen und das Verfahren wiederholen. Worauf man achten sollte ist, dass jede weitere Domäne, die mit Content, also durch gute Texte, für eine Internetseite wirbt, erst mit einigem zeitlichen Verzug von Google indiziert werden sollte. Wir meinen, es sollten mehrere Wochen vergehen, bevor eine zweite eigens für Backlinks aufgebaute Domäne nach der ersten Domäne dieser Art öffentlich wird.

Ansonsten kann es sein, dass Google das Verfahren abstraft. Also lieber zu viel Zeit vergehen lassen als überhastet agieren. Wer mehr dazu lesen möchte, für den haben wir eine Buchempfehlung:

Das SEO-Praxisbuch 2015

€ 19,90
9.1

Praxiswert

9.7/10

Verständlichkeit

9.2/10

Umfang

8.7/10

Preis

8.8/10

Vorteile

  • Hoher Praxiswert
  • Aktuelle Tipps
  • Leicht verständlich

Black Hat SEO Tools

Zwischen dem Schwarzbereich und den erwünschten SEO-Maßnahmen gibt es eine gewisse Überlappung. Unser erster Tool-Tipp für Webmaster gilt daher SEORCH, einem Online-Werkzeug, das eine beliebige Webseite auswertet und Verbesserungsmöglichkeiten für das Ranking angibt. So können die Texte einer Domain auf die sichere Methode verbessert werden.

Wirklich Black Hat Marketing ist die Windows-Software GSA – SER, die Backlinks durch das automatische Erzeugen von Kommentaren auf Drittseiten erzeugt. Diese als Linkbuilding bezeichnete Methode kann Erfolg bringen, aber auch das Gegenteil.

Linkbuilding Software
Das GSA SER Tool

Die kostenlose Version ist 5 Tage lang lauffähig und hat ein paar Restriktionen. Man muss hier aufpassen, es mit dem Linkbuilding nicht zu übertreiben um nicht als Link Spam Quelle eingestuft zu werden.

Etwas weiter noch geht die kostenpflichtige Software ScrapeBox, die für an die $100 einiges leistet: ScrapeBox sammelt und scannt Konkurrenzseiten, erntet relevante Keywords, Pingt andere Domains an um selbst als Referrer gelistet zu werden und schickt auch automatisierte Kommentare an Blogs, um Backlinks zu erzeugen.

In einem anderen Artikel werden weitere SEO Tools für Webmaster vorgestellt, die weniger gefährlich sind als GSA SER und ScrapeBox. Und wer wissen will, was man unbedingt vermeiden sollte, für den ist 10 things not do do das richtige (englischer Beitrag).

Guerilla SEO: Do It Yourself: Schritt-für-Schritt-Anleitung für alle mit eigener Homepage

€ 15,84
8.9

Praxiswert

9.3/10

Verständlichkeit

9.7/10

Umfang

8.0/10

Preis

8.6/10

Vorteile

  • Ausgewiesenes Praxisbuch
  • Für Anfänger geeignet
  • Sehr verständlich geschrieben
  • Schnelle Infos
  • Unterhaltsam

Nachteile

  • Erfordert Mut

Wie hat Dir der Artikel gefallen?

Black Hat SEO Maßnahmen: 1 Stern2 Sterne3 Sterne4 Sterne5 Sterne 4,44 von 5 Punkten, basieren auf 16 abgegebenen Stimmen.

 

Weitere Beiträge

SEO und Sitemaps

Geschätzte Lesezeit: 4 Minuten, 40 Sekunden

Eine Sitemap ist ein Verzeichnis der Seiten einer Webpräsenz. Ursprünglich waren Sitemaps zur Orientierung für den Besucher einer Website gedacht. Heutzutage hat sich die Bedeutung einer Sitemap gewandelt: Sie spielt nun auch eine Rolle, wenn es um Suchmaschinenoptimierung (SEO) geht, denn mit ihrer Hilfe kann man das Crawling durch Suchmaschinen beschleunigen.

html Sitemaps

Sitemaps für SEO

Eine Sitemap, die für SEO relevant ist, ist eine einfach aufgebaute XML-Datei. Sie benennt alle Dateien, die für eine Suchmaschine relevant sind. Sitemaps heissen normalerweise sitemap.xml, main-sitemap.xml o.ä. und liegen oft im Hauptverzeichnis einer Webpräsenz. Sitemaps sind nicht unbedingt erforderlich, haben aber einen großen Nutzen im Rahmen der Suchmaschinenoptimierung (weiter unten beschreiben wir, warum das so ist).

Sitemaps haben einen Inhalt wie diesen:

<?xml version="1.0" encoding="UTF-8"?>
<urlset
xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://www.sitemaps.org/schemas/sitemap/0.9
http://www.sitemaps.org/schemas/sitemap/0.9/sitemap.xsd">
<url>
<loc>http://www.erfolgsrezepte-online.de/</loc>
<lastmod>2015-04-21T20:34:01+00:00</lastmod>
</url>
<url>
<loc>http://www.erfolgsrezepte-online.de/index.html</loc>
<lastmod>2015-04-21T20:34:01+00:00</lastmod>
</url>
<loc>http://www.erfolgsrezepte-online.de/index.htm</loc>
<lastmod>2015-04-21T20:34:01+00:00</lastmod>
</url>
</urlset>

Schon nach kurzem Betrachten erkennt man das Prinzip hinter dem Aufbau von Sitemaps dieser Art. Es wird einfach jede Datei aufgelistet und zu jeder der Pages der Zeitpunkt der letzten Änderung. Erzeugt man eine solche Sitemap automatisch mit WordPress (siehe hierzu ein geeignetes Plugin für Sitemaps, das für Search Engines wie Google, Bing und Yahoo eine solche automatisch generiert) , heisst die Datei nach aktuellem Stand sitemap_index.xml und sieht so aus:

<?xml version="1.0" encoding="UTF-8"?><?xml-stylesheet type="text/xsl" href="//www.erfolgsrezepte-online.de/main-sitemap.xsl"?>
<sitemapindex xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<sitemap>
<loc>http://www.erfolgsrezepte-online.de/post-sitemap.xml</loc>
<lastmod>2015-05-01T15:40:56+02:00</lastmod>
</sitemap>
<sitemap>
<loc>http://www.erfolgsrezepte-online.de/page-sitemap.xml</loc>
<lastmod>2015-04-30T20:27:23+02:00</lastmod>
</sitemap>
<sitemap>
<loc>http://www.erfolgsrezepte-online.de/category-sitemap.xml</loc>
<lastmod>2015-05-01T15:40:56+02:00</lastmod>
</sitemap>
<sitemap>
<loc>http://www.erfolgsrezepte-online.de/post_tag-sitemap.xml</loc>
<lastmod>2015-05-01T15:40:56+02:00</lastmod>
</sitemap>
</sitemapindex>

Diese Sitemap ist hierarchisch aufgebaut: Klickt man auf einen der Links, öffnet sich eine weitere Sitemap-Datei, die wiederum bestimmte Pages referenziert. So enthält die Sitemap für Posts die WordPress-Artikel aus denen ERFOLGSREZEPTE ONLINE besteht.

Sitemaps, wie man sie von früher kennt, sind keine XML sondern HTML-Dateien, die zur Ansicht für den menschlichen Leser gedacht sind. Sie haben auch einen Nutzwert im SEO/SEM-Bereich, aber sind vernachlässigbar, wenn eine XML-Sitemap vorliegt. Der einzige Nutzen von HTML-Sitemaps ist de facto nur noch  (immerhin!) der, dass ein Leser sich möglicherweise auf einer Website besser orientieren kann. Allerdings meinen wir, dass eine gute Suchfunktion auf einer Webpräsenz (Blog, Webseite etc.) eine Sitemap im HTML Format obsolet macht.

Der Nutzen von Sitemaps für SEO

Eine Sitemap garantiert, dass eine Suchmaschine wie Google alle relevanten Seiten indizieren kann. Weil eine Sitemap systematisch aufgebaut ist, kann Google die Webseite viel schneller indizieren als wenn alle Links gecrawlt (verfolgt) werden müssten.
Man kann seine Sitemap direkt in den Google Webmaster Tools einreichen, unser extra Artikel dazu erklärt genau, wie das geht und welche weiteren Vorteile Sitemaps als SEO-Maßnahme bringen. Google beschreibt übrigens auch offiziell noch einmal, warum Sitemaps für die Suchmaschine insbesondere wichtig sind.

Bevor man seine Sitemap bei Google einreichen (und auch testen lassen) kann, muss man seine Webseite bei den Webmaster Tools eintragen und verifizieren (Google erklärt in den Tools, wie das geht und wir auch im o.g. Artikel).
Nachdem die Sitemap für Deine Web Site eingereicht wurde, sieht man so etwas in den Tools:

Webmaster Tools Sitemap
Sitemap Statistik

Alternativ kann man seine Sitemap auch über die robots.txt Datei bekanntmachen, indem man folgende Zeile hinzufügt:

Sitemap: http://www.deine-website.de/name-deiner-sitemap.xml

Wir empfehlen, der HTML Sitemap den weit verbreiteten und von vielen Suchmaschinen direkt gefundenen Namen sitemap.xml zu geben. Wer noch HTML verwendet, nimmt natürlich eine andere Dateiendung.

Wenn viele Daten auf einer Webseite liegen und der Betreiber Crawling unterbinden möchte, dann sollte man stattdessen einen geheimen Namen für die Sitemap wählen und diesen NICHT in der robots Datei hinterlegen, sondern NUR in den Webmaster Tools:

Sitemap Filename
Sitemap Dateiname

Wenn Eure Website mit WordPress erstellt wurde, ist das Erstellen einer Sitemap grundsätzlich kein Problem, da ein Generator auf dem Server verwendet werden kann: In diesem Grundlagenartikel erklären wir es.

Für eine bestehende Webseite gibt es Tools zur Erstellung von Sitemaps mit einem Generator, auch das haben wir in einem Artikel beschrieben.

Wer sich tiefergehend mit dem Thema SEO beschäftigen möchte, dem empfehlen wir das Buch Website Boosting 2.0 von Mario Fischer, der auch Herausgeber der regelmäßig erscheinenden SEO-Zeitschrift ist, die genau wie das Buch heisst:

Website Boosting 2.0: Suchmaschinen-Optimierung, Usability, Online-Marketing

€ 34,95
9.3

Praxiswert

9.1/10

Verständlichkeit

9.2/10

Umfang

9.8/10

Preis

8.9/10

Vorteile

  • Sehr umfangreich
  • Große Themenvielfalt
  • Insidertipps
  • Viele Tipps & Tricks

Nachteile

  • Fülle an Informationen

Interessante Fakten zu XML-Sitemaps

Sitemaps unterliegen gewissen Restriktionen und bieten andererseits ein paar Freiheitsgrade:

  • Sitemaps sollten nicht mehr als 50000 URLs beinhalten und nicht größer als 10 Megabytes sein, ansonsten können sie nicht mehr vernünftig eingelesen werden und gelten als nichtexistent
  • Man kann Sitemaps komprimiert einreichen, etwa ZIP-komprimiert. Ein Generator erleichtert diese Arbeit enorm.
  • In den Webmaster Tools kann man sowohl Fehler in der Struktur einer eingereichten Sitemap für seine Websites erkennen als auch, ob und wann Google diese bereits indiziert hat (initial dauert das bis zu mehreren Tagen)
  • Sitemaps können auch andere Ressourcen auf dem Server als HTML-Dateien referenzieren, beispielsweise Mediendateien oder XML-Dateien (siehe folgenden Punkt)
  • Gibt es mehrere Sitemaps pro Webpräsenz, dann kann man diese in einer übergeordneten Sitemap-Datei für die Websites zusammenfassend benennen. Diese übergeordnete Sitemap ist dann die einzige, die eingereicht werden muss, da sie eine Referenz auf die anderen Maps enthält
  • Laut Google Mitarbeiter Matt Cutts ist eine Sitemap erst für Webseiten erforderlich, die nicht als klein eingestuft werden. Konkret bedeutet das nach der Definition von Google, dass die Webpräsenz mehr als 10000 Seiten umfasst. Eine Sitemap zu haben, schadet aber in keinem Fall, daher sollte man eine haben…

Weitere Informationen zu Sitemaps

Das SEO-Praxisbuch 2016

€ 24,90
9.2

Praxiswert

9.8/10

Verständlichkeit

9.4/10

Umfang

8.7/10

Preis

8.9/10

Vorteile

  • Enormer Praxiswert
  • Topaktuelle Tipps
  • Leicht verständlich
  • Mit Insider-Tipps

Wie hat Dir der Artikel gefallen?

SEO und Sitemaps: 1 Stern2 Sterne3 Sterne4 Sterne5 Sterne 4,80 von 5 Punkten, basieren auf 5 abgegebenen Stimmen.

Weitere Beiträge

Mobilegeddon – Was ist das?

Geschätzte Lesezeit: 4 Minuten, 5 Sekunden

Google bewertet die Mobilfähigkeiten von Webseiten für das Ranking. Es gilt geeignete Maßnahmen zu ergreifen, um sich vor einem Absturz in den Suchergebnissen zu schützen.
mobilegeddon
Der Begriff wurde Ende April 2015 populär, weil Google zu diesem Zeitpunkt offiziell anfing, Webseiten auf ihre Tauglichkeit hin zu untersuchen, wie gut sie auf mobilen Endgeräten wie Smartphones dargestellt werden können.

Warum Mobilegeddon?

Es wäre nicht so schlimm, wenn Google lediglich feststellen würde, dass eine Webseite nicht geeignet ist für die Darstellung auf Mobiltelefonen. Leider geht mit dieser Feststellung aber auch eine Bestrafung durch Google einher (siehe auch einen Spiegel Online Artikel dazu). Das heisst: Jede Webseite, die nicht vernünftig auf mobile Devices dargestellt wird, läuft Gefahr, im Google Ranking weit nach unten zu rutschen.

Und wer will das schon? es ist also relevant, ob Deine Homepage mobil ist oder nicht. Anfang Juni wurde bestätigt, dass ungefähr die Hälfte aller Seiten, die nicht mobile friendly sind, im Ranking abgestürzt sind!

Mobilfähig heisst allerdings nur, dass eine Version für Smartphones vorhanden sein muss. Tablets, Notebooks und Desktop-PCs sind nicht Teil der Prüfung, d.h. insbesondere für ein Tablet, das ja eine relativ hohe Auflösung und mittelmäßig große Bildfläche besitzt, bedarf es keiner gesonderten Mobilversion der Seite! Das wurde auch von Google in Website Boosting #31 klargestellt.

Übrigens wurde Anfang Mai 2015 auch von Bing angekündigt, dass mobilfähige Seiten ein besseres Ranking erhalten als die Webpräsenzen, die nur auf Desktops gut aussehen.  Allerdings wird es wohl bei Bing keine massiven Sichtbarkeitsverluste geben, da das Feedback der Webmaster abgewartet und ausgewertet wird, bevor die Suchstrategie angepasst wird. Bing wird in den Suchergebnissen ein mobile friendly Label anzeigen, um den User über die Fähigkeit der jeweiligen Seite besser zu informieren.

Wie kommt es zum Mobilegeddon?

Viele Webseiten sind von Hand erstellt und nicht über moderne Content Management Systeme wie WordPress oder Joomla. Oder man hat das falsche Tool eingesetzt (ganz am Ende dieses Artikels nennen wir ein paar geeignete Tools und Möglichkeiten).

Das resultiert darin, dass Seiten für eine fixe Darstellungsbreite angelegt wurden. Die Annahme, dass eine Webseite auf einem PC-Monitor angeschaut wird, war eben bis vor nicht allzu langer Zeit noch zulässig. Und jeder, wirklich jeder heutige Computer-Bildschirm kann Auflösungen von 1024 Pixeln Breite oder mehr darstellen. Warum also nicht für die Homepage eine feste Breite von 1000 Pixeln festsetzen?

Heutige mobile Endgeräte haben zwar ebenfalls oft eine hohe Auflösung in Pixeln (oft sogar mehr als ein LCD-Bildschirm). Allerdings fällt jedem auch sofort auf, dass ein Smartphone oder selbst ein Tablet eine sehr kleine physische Größe hat verglichen mit einem Monitor. Das ganze drückt sich in der Einheit Zoll aus: PC-Monitor: 21 Zoll o.ä., Smartphone: 6 Zoll, Tablet: 14 Zoll (all das sind nur Richtwerte, um die Qualität des Problems zu verdeutlichen).

Man kann also einen Text mit einer Schriftgröße von 14 Pixeln auf einem PC-Bildschirm sehr gut lesen (außer man ist kurzsichtig…), auf einem Smartphone hingegen gar nicht – jedenfalls nicht ohne Zoomen.

Das genau stört Google nämlich: Dass ein Smartphone-User zoomen oder scrollen muss. Und erst wenn eine Webseite für mobile Geräte optimiert ist, dann ist auch die Suchmaschine zufrieden! Mal ehrlich: Wer hätte das vor ein paar Jahren gedacht, dass dieser Zusammenhang mal ins Spiel kommen würde?

Teste Deine Webseite mit dem Google Mobile Check. Im Idealfall erhältst Du folgende Meldung:

Mobile check
Website check bei Mobilegeddon

Was tun, um das Mobilegeddon zu vermeiden?

Die Antwort ist nicht ganz einfach und sie hängt auch von der Webseite ab, um die es geht.

Wir haben hierzu deshalb extra einen Artikel geschrieben, wo erklärt wird, wie man seine Webseite fit für die mobile Darstellung macht.

Vorab schon mal ein paar Links für diejenigen, die eine neue Webseite erstellen wollen. Denn in diesem Fall sollte man gleich richtig planen und eine responsive Webseite erstellen. Wer hier den Fehler macht, zu wenig Aufwand reinzustecken oder das falsche Tool zu verwenden, den bestraft nicht nur das Leben, sondern auch Google. Abgesehen davon: Jeder hat doch einen Vorteil, wenn die eigene Website von möglichst vielen Endgeräten aus optisch einwandfrei dargestellt werden kann!

Content Management Systeme (CMS)

Idealerweise verwendet man ein CMS, um das Problem des Mobilegeddon auf elegante und stressfreie Weise zu umgehen. Die populärsten CMSe haben wir hier für Euch aufgelistet – WordPress ist unser absoluter Tipp!

Voraussetzung für die Nutzung eines CMS ist ein geeigneter Webspace bei einem Provider wie Strato oder 1&1. Beispielsweise bietet Strato schon für ein paar Euro im Monat Webhosting-Pakete an, die WordPress enthalten (bzw. einen One-Click-Installer dafür, wirklich einfach). Übrigens wurde ERFOLGSREZEPTE ONLINE auch mit WordPress erstellt! Siehe auch unseren WordPress Hosting Testbericht.

  • WordPress: Die Nummer eins der Content Management Systeme: Unser Top-Tip
  • Magento: Ebenfalls populär, Hosting beispielsweise bei 1&1
  • Joomla: Nicht so umfangreich wie WordPress
  • Drupal: Nicht ganz so einfach zu bedienen wie WordPress, eher für technisch versiertere Personen
  • Plugins für WordPress: Ein Plugin ist eine Erweiterung. Für WordPress sind die allermeisten kostenlos und viele sind wirklich mächtig
  • WordPress für Dummies: Ein gutes Buch für Anfänger
  • Als Plugins für WordPress empfehlen wir

Tools für Webseiten

Wer ohne Programmieren zum Ziel kommen will, braucht ein mächtiges Werkzeug. Wir stellen einige davon hier vor, macht euch selbst ein Bild:

Webflow Websites
Webflow Editor für Webseiten
  • Webflow: supereinfaches Tool zum Erstellen von Webseiten – kostenlos und online. Bietet auch responsive Designs
  • Dunked: Nach der obligatorischen Registrierung kann man rein visuell Webseiten erstellen

Weitere Tools sind in unserem Tools-Artikel zu finden.


Wie hat Dir der Artikel gefallen?

Mobilegeddon – Was ist das?: 1 Stern2 Sterne3 Sterne4 Sterne5 Sterne 4,75 von 5 Punkten, basieren auf 8 abgegebenen Stimmen.
SEO Agentur Testsieger

 

Weitere Beiträge