SEO Onpage Checkliste

//SEO Onpage Checkliste

SEO Onpage Checkliste

Suchmaschinenoptimierung umfasst Maßnahmen der „Onpage-Optimierung“ (auch als On-the-Page oder On-Site-Optimierung genannt), als auch Maßnahmen der „Offpage-Optimierung“ (Off-the-Page oder Off-Site-Optimierung).

Unter „Onpage Optimierung“ versteht man alle Maßnahmen der Suchmaschinenoptimierung, die auf der eigenen Website vorgenommen werden. Bei der Onpage-Optimierung wird darauf geachtet, dass alle Seiten einer Webpräsenz erreichbar sind und Struktur und Inhalte für User und Suchmaschinen gleichermaßen gut aufbereitet sind.

Die Onpage Optimierung ist die Voraussetzung für gute Rankings in den Suchmaschinen. Sie ist das Rüstzeug und die Grundvoraussetzung. Gut also, wenn man dazu auf eine Chackliste zurück greifen kann.

Die Onpage Checkliste

Die folgende Liste stellt die wichtigsten Punkte einer Onpage-Optimierung dar. Sie erhebt keinen Anspruch auf Vollständigkeit. Auch werden sich einige Anforderungen durch Änderungen des Algorithmus und Filtern von Suchmaschinen (die Betrachtungen beziehen sich im übrigen überwiegend auf Google) ändern können. Last but not least sind mehrere Punkte auch zu diskutieren (will heißen: es gibt dazu unterschiedliche Meinungen).

 

SEO Onpage Checkliste
Task Bedeutung Erklärung
Title-Tag Eindeutiger Title-Tag ist obligatorisch Title-Daten werden in den Suchergebnissen für die Erstellung des „Snippets“ (Auszug) herangezogen.
Sie sollen einzigartig sein (keine 2 Seiten dürfen den gleichen title haben).
Empfohlene Länge: etwa 75 Zeichen oder weniger.
Title kann den Brand am Ende führen.
META-Keywords Einbau von passenden und einzigartigen META-Keyword- Tags pro Seite Suchmaschinen beziehen Meta-Keywords in die Relevanzgewichtung einer Seite nicht mehr ein – das kann sich jedoch ändern.
Relevante / wichtige Worte sollten zuerst auftauchen.
Relevanz kann auf www.google.de/trends überprüft werden.
Empfohlene Länge: etwa 4-8 Worte.
Per Komma getrennt, Leerzeichen nach Komma.
META-Description Einbau eines passenden und einzigartigen META-KeywordTags pro Seite ist obligatorisch „Suchmaschinen nehmen das META-Description-Tag für den zweizeiligen Auszug („Snippet“) im Suchergebnis.
Der Inhalt sollte einzigartig sein und zur Seite passen.
Relevante Stichworte sollten in der META-Description verarbeitet werden.
Eine Richtlinie für die optimale Länge der Description gibt Google selbst in der Ergebnisanzeige vor: Jede Trefferbeschreibung besteht aus ca 160 – 180 Zeichen, wobei etwa in der Hälfte eine Zäsur gemacht wird. Also soll auch die Description im ersten Teil (70 – 80 Zeichen) nicht nur die wesentlichen Keywords enthalten, sondern auch zum Klick anregen.
Beispiel für eine Auto-Seite: Gebrauchtwagen und News für Autokenner – auf unseren Autoseiten finden sie die neusten Infos, die heißesten Gerüchte sowie alles zum Thema PS, Tuning und immer die besten Tipps für günstige Angebote.
Strukturiertes HTML, semantischer Inhalt Valider HTML-Code, Einbau passender HTML-Tags, H1 – H3 Überschriften, strong, em etc. Verwendung von validem HTML-Code (W3C Check).
Überschriften sollten in <h>-Tags stehen (H1 bis H3).
Text-Abschnitte sollten von <p>-Tags eingeschlossen werden.
Listen sollten mit <li>-Tags organisiert sein.
<div>-Ebenen sind <table>-Tabellen zum Layout vorzuziehen.
Content strukturieren (strong, em etc): Inhalte mit der Formatierung „Fett“ (<strong>) oder „Kursiv“ (<em>) sind für den User hervorgehoben und werden deshalb von Suchmaschinen auch höher gewertet als normal formatierter Text.
Je kürzer der HTML-Code desto besser.
robots.txt , meta noindex, nofollow Robots.txt darf die Suchmaschinen-Crawler nicht ausschließen, Meta noindex oder nofollow dürfen Suchmaschinen nicht einschränken. Eine robots.txt-Datei darf Suchmaschinen nicht ausschließen.
Auch in den Meta-Daten dürfen Suchmaschinen nicht ausgeschlossen werden (Kein Einsatz von „noindex“, „nofollow“, „noarchive“ u.ä. – diese hindern am indizieren oder Links verfolgen).
Diese Meta-Daten dürfen nur in Ausnahmefällen vorsichtig – und am besten nach Rücksprache mit SEO-Experten – genutzt werden.
Inhalt indizierbar Wichtiger Inhalt soll im HTMLContainer stehen Wichtiger Text darf nicht in Bildern (GIF, JPEG, PNG) oder Flash vorkommen – er kann nicht gefunden werden.
Inhalte in Inline Frames können nicht gefunden werden.
Inhalte in Javascripts können m.E. nicht gefunden werden.
Nachgeladene Inhalte (AJAX) können m.E. nicht gefunden werden.
Inhalte, die nur mit Plugins gezeigt werden können (z.B. JAVA) können nicht gefunden werden.
Inhalte/Informationen sollen als Systemschrift angelegt werden.
Ein Text-Browser wie „lynx“ oder Tools wie z.B. http://www.yellowpipe.com/yis/tools/lynx/lynx viewer.php zeigen an, wie eine Suchmaschine eine Seite in etwa sieht.
Keywords im Inhalt Seite kann nur zu einem Suchwort gefunden werden, wenn dieses dort auftaucht Pro Text / Seite auf 1-2 Keywords (oder Keyword-Kombinationen bzw. Suchphrasen) konzentrieren.
Relevanz von Keywords so wie wichtigste Erweiterungen prüfen über Google Trends und das AdWords Keyword-Tool (http://www.google.com/trends/ bzw. https://adwords.google.com/o/Targeting/Explorer?__c=1000000000&__u=1000000000&ideaRequestType=KEYWORD_IDEAS).
Wenn eine Seite zu „OCR Software“ gefunden werden soll, muss das Wort bzw. Kombination „OCR Software“ auf der Seite auftauchen.
Jedoch auch nicht zu häufig um Spamverdacht zu vermeiden (Stichwort: Stuffing, Keyword Density).
Keywords sollten in Überschrift, Teaser, Bildunterschrift und Text auftauchen, ohne die Lesbarkeit negativ zu beeinflussen.
Kewords sollten sowohl am Anfang des Artikels als auch am Schluß vorkommen.
keine Irreführung,
kein Stuffing Sinnlose Wiederholung von Keywords im Text wird bestraft Vielfache Wiederholung eines Keywords hilft nicht, sondern wird als Betrug eingestuft und führt zum Ausschluss aus Suchmaschinen.
Entscheidend ist die richtige Keyword-Density (beschreibt, wie häufig ein Begriff (das Suchwort) in einem Dokument vorkommt. Sie ist der Quotient aus absoluten Anzahl eines bestimmten Terms (Wort- oder Wortkombination) und der Anzahl aller Terme im Dokument).
Eine Keyword-Density von 3-4% ist i.d.R. gut.
keine unsichtbaren
 Inhalte Der Versuch der Täuschung wird bestraft Inhalte in unsichtbaren Bereichen (unsichtbare Ebenen, Schriftfarbe = Hintergrundfarbe oder ähnliche Tricks) schaden dem Suchmaschinenlisting und führen zum Ausschluss der Seite aus dem Suchmaschinenindex
keine Frames Frames schränken das Suchmaschinen-Ranking ein und sollten vermieden werden Suchmaschinen kommen schwer mit Frames zurecht, da sie die Struktur (Browserpaths) nicht erkennen können.
Frames werden in den Suchergebnissen vernachlässigt behandelt.
Das Verwenden von Frames und iFrames sollte dringend vermieden werden – alle Inhalte hinter einem Frame werden nicht gefunden.
Der Einsatz von Frames gilt auch bei Website-Besuchern als veraltet. Mobile Endgeräte kommen mit Frames ebenfalls kaum zurecht.
keine Popups Popups per Javascript werden nicht verfolgt und sollten vermieden werden Suchmaschinen „assoziieren“ Popups mit übermäßiger Werbung.
Suchmaschinen verfolgen m.E. keine Javascript-Links.
Inhalte in Popups werden daher von Suchmaschinen nicht indiziert und nicht gefunden.
Popups sind nicht nur für User ärgerlich sondern bleiben für Suchmaschinen unsichtbar.
Möglich sind ggf. Layer.
keine Flash-Only
Informationen Informationen in Flash-Filmen sollten zur visuellen Verdeutlichung dienen und in Systemschrift zusätzlich auftauchen Suchmaschinen können aus Flash-Filmen keine Text-Informationen ziehen, sobald diese animiert sind.
Flash-Filme werden bei den Suchergebnislisten vernachlässigt behandelt.
Vorsicht bei Werbung Übermäßige Werbung wirkt für User störend Google bewertet auch die Usability einer Website. Übermäßige Werbung ist für User störend.
Google rankt daher Sites mit vile Werbung im sichtbaren Bereich schlechter.
„Made for Adsense“ Seiten haben kaum mehr eine Chance auf gute Rankings.
kein doppelter 
Inhalt Inhalte sollten ausschließlich unter einer URL erreichbar sein (kein Dupöicate Content) Derselbe Inhalt unter verschiedenen URLs (mehrere Domains, mehrere Seiten) wird als „Duplicate Content“ identifiziert und von den Suchmaschinen vernachlässigt behandelt.
Eine Seite sollte „unique“ sein, um von Suchmaschinen als wertvoll betrachtet zu werden.
Bei syndiziertem Content lässt sich Einzigartigkeit z.B. durch Einbindung Individueller (Text-)Inhalte, AOL-Navigation und –Footer herstellen.
Auch Parameter in der URL (?tracking=123) kann doppelten Content erzeugen.
Ergebnislisten Ergebnislisten auf der eigenen Website bedürfen einer besonderen Beachtung Ergebnislisten auf der eigenen Seite helfen als Einsprungsseiten zu Detailseiten – es handelt sich um Übersichtsseiten und sind daher sehr wichtig.
Aber: Ergebnislisten sind häufig Fehlerquellen – z.B. für doppelten Content – insbesondere wenn sie paginiert sind.
Da sie keinen eigenen Inhalt haben sondern sich aus Inhalten von Unterseiten zusammensetzen können sie doppelten Content darstellen – insbesondere wenn META-Title und META-Description nicht variiert werden.
Es gibt mehrere Wege Ergebnislisten richtig zu nutzen.
Der „modernste“ weg ist über die Auszeichnung mit „rel=next“ und „rel=previous“ bzw. view-all Resultpages (http://googlewebmastercentral.blogspot.de/2011/09/pagination-with-relnext-and-relprev.html).
Möglich ist auch der Einsatz von nofollow für Folgeseiten oder eine thematische Sortierung.
canonical canonical-Tag nur für wirklich gleichen Content Der canonical soll Suchmaschinen helfen doppelten Content richtig zu zu ordnen. Er darf daher nur für wirklich identischen Inhalt genutzt werden.
Verlinkung Interne Verlinkung ist extrem wichtig, Relevante Linktexte nutzen, Textlinks besser als Grafiklinks Eine gute interne Verlinkung ist eines der wichtigsten Ranking-Kriterien.
Wichtige Artikel sollten häufig (ggf. von jeder Seite – also aus der Navigation) verlinkt sein.
Interne Verlinkung sollte (auch) über Relevanz erfolgen.
Text in Bildern ist für Suchmaschinen nicht lesbar – daher onpage keine Navigation mit Bildern.
Relevanter Text in Links (sog. Anchor-Text) hilft der Zielseite im Ranking in den Suchergebnissen.
Sogenannte Stop Words sind erlaubt („dieser“, „im“, „mit“ etc.).
Verlinkung nicht über generische Worte („weiter“, „Details“, „mehr lesen“) sondern über passende Keywords („Mehr Informationen zur Privaten Krankenversicherung“, „Finden Sie hier alles zur günstigen privaten Krankenversicherungen“).
Links spiderbar Links sind nur hilfreich, wenn eine Suchmaschine sie versteht Links sollen als <a …>-Links verwendet werden.
Keine javascript:-Links – sie werden nicht verfolgt und beachtet.
Links sollten nicht über Bilder realisiert werden.
Der Link-Text sollte speziell sein – nicht generisch (Gut: „Hier geht es zur neuen Linkin Park CD“ – Schlecht: Zur „Madonna CD geht es hier“).
Links auf externe Seiten sind erlaubt, sie müssen aber regelmäßig auf Gültigkeit geprüft werden.
Link Farming Seite nicht mit Links überladen Eine magische Grenze für Links pro Seite sollte 100 nicht übersteigen (ist schon zu groß wenn nicht genug Text auf der Seite).
Sitemaps dürfen viele Links beherbergen.
Zu viele Links pro Seite helfen bei der Optimierung für Suchmaschinen nicht.
Alternativer Text Bilder mit alt-Attribut ausrüsten Bilder können durch das alt-Attribut näher beschrieben werden.
Beschreibung durch 2-4 Wörter (Beispiel: „Mann mit buntem Hut“, „Portrait von James Blunt“, „Ferrari mit Michael Schuhmacher“).
Sprechende URL Sprechende URL hilft der Suchmaschine die Seite zu verstehen Dateinamen in URLs sollten beschreibend sein (radsport.html, hotelsuche.html).
Trennung der Worte durch Bindestriche, nicht durch Unterstriche. Ausnahme: Dateinamen von Bildern
Die Ordnerlogik sollte möglichst flach sein – die Dateien sollten möglichst nicht weiter als 2 Ordner entfernt vom Root angelegt werden.
Die URL sollte parameterfrei bleiben, da Parameter ein Hindernis darstellen – Tracking sollte über Cookies erfolgen, nicht über eine Referrer-ID in der URL.
Ordnerstrukturen sollten den Inhalt beschreiben: (z. B http://www.meineseite.de/musik/madonna/biografie/index.html).
Bei Seiten die als News-Seite gelten sollen ist ein numerischer Bestandteil notwendig.
Sitemap / xml Sitemap Eine Sitemap sollte alle Übersichtsseiten sowie wichtige Ausgabeseiten übersichtlich in Textlinks zusammenfassen Suchmaschinen indizieren eine Website anhand von Links.
Sitemaps geben übersichtliche Einstiegspunkte auch in tiefe Websitebereiche.
Suchmaschinen folgen Verweisen und Links nicht endlos tief – Sitemaps bieten sehr gute Sprungpunkte.
Eine XML-Sitemap für z.B. Google sollte sehr regelmäßig und zeitnah automatisch upgedated werden, die URL der XML-Sitemap sollte bei Google angemeldet werden, um der Suchmaschine das zeitnahe Crawlen zu ermöglichen (Mehr Infos: http://www.google.com/webmaster).
Redirects Redirects nur per 301- Permanently Moved ausführen Google interpretiert sehr W3C konform.
Redirects werden von Suchmaschinen vernachlässigt behandelt, wenn sie technisch als 302 – Temporarily Moved umgesetzt wurden.
Lösung: Umsetzung nur als 301 – Permanently Moved.
Korrekter Statuscode http Statuscode (auch von Fehlerseiten) muß korrekt sein Google verhält sich sehr W3C konform – auch bei Fehlerseiten.
Der Statuscode für vorhandene Seiten ist 200 (ok).
Seiten die gelöscht wurden haben den Status 404 (not found) oder 410 (gone).
500er Fehler sind ein Programmierfehler und dürfen schon deshalb nicht auftreten.
Nicht einfach leere Seiten behalten (mit Status 200) wenn Inhalte nicht mehr vorhanden sind. Es muß ein Status 404 sein.
404 Seiten dürfen intern nicht mehr verlinkt sein.
Wichtige Seiten können mit 301 weitergeleitet werden (Soft 404).
Scripte Auslagern CSS und Javascript referenzieren und auslagern Je kürzer der HTML-Code, desto besser.
Auslagerung von Javascripts in .js Dateien.
Trennung von Layout und Inhalt durch CSS.
CSS auslagern, kein Inline-css.
Browser-Detection Keine Browserweiche extra für Suchmaschinen Browserweichen für Besuchergruppen sind für Suchmaschinen schlecht – wo unvermeidbar darf eine Suchmaschine jedoch nicht sonderbehandelt werden.
Keine Inhalte, die nur Suchmaschinen sehen – ein Ausschluss aus dem Index wäre die Folge.
keine Cookie-Pflicht Keine Cookie-Pflicht zum Besuchen der Seiten Cookies dürfen nicht den Besuch einer Seite bedingen
Inhalt muss auch für ausgeschaltete Cookies lesbar sein (Ausnahmen: Bestellprozesse, Webmail)
Ausnahme: „Interner Bereich“ (wenn User angemeldet ist)
Klickpfade Verlinkbaren Klickweg zu jeder Seite anbieten Jede Seite sollte per Deep-Link erreichbar sein
Es sollte zu jeder Seite ein Text-Link Klickpfad (Browsepath) vorliegen, sodass Suchmaschinen alle Seiten erreichen können
Bei Navigation/Auswahl welche per Drop-Down arbeiten, sollte parallel zu jeder Kombinationsmöglichkeit der Drop-Down-Möglichkeiten eine Link-Navigation bestehen (Beispiel: [Alle Auto-Modelle von Mercedes-Benz] – [Alle Cabrios von Mercedes-Benz]…
Hilfreich für saubere Klickpfade sind Breadcrumps
Einsatz von Rich Snippets Suchmaschinen lieben semantisches Web Wo möglich sollten Microformats genutzt werden.
Durch den Einsatz von Microformats können Suchmaschinen Inhalte besser zuordnen.
Beispiele: Adressen, Bewertungen.
Aber auch Google Authorship.
PageSpeed Seiten sollten schnell ausgeliefert werden Google „denkt“ aus Nutzersicht. Schnelle Seiten werden bevorzugt
Mit Tools wie YSlow! oder online http://loads.in/ kann man die Geschwindigkeit testen
Google selbst zeigt seine Einschätzung der Geschwindigkeit in den Webmastertools an
Serverstandort Google erkennt localization Hosting ist auch ein SEO-Thema. Einerseits geht es um Geschwindigkeit und Anbindung des Rechenzentrums, um Ausfall der Website aber auch um Lokalisierung.
Bei international tätigen Seiten sollte auf den Standort des/der Server geachtet werden.
Einsatz von CDNs ist denkbar – aber ein Spezialthema.
Generell ist beim Thema Hosting „Bad Neighborhood“ zu vermeiden.
tld Bestimmte Top-Level-Domains (tld) werden favorisiert .com, .net, .org sowie bestimmte Länderdomains wie .de werden am besten gelistet.
Bei international tätigen bzw. englischsprachigen Seiten sollte eine .com Domain zum Einsatz kommen (wird gegenüber .net und .org bevorzugt).
Mit Domains wie .ws, .cd, .tv ist es schwerer gute Rankings zu erzeugen.
Einsatz von Monitoring-Tools Eine Website muß stets beobachtet werden Webanalyse-Tools helfen Fehler auf der Seite zu beheben und sie weiter zu optimieren.
Obligatorisch ist der Einsatz von Webmaster-Tools (www.google.com/webmasters/tools/) – dort werden Crawling-Fehler angezeigt die zu beseitigen sind.
Ein Web-Analyse-Tool wie Google Analytics ist ebenfalls obligatorisch.
Der Code der für diese Tools eingebunden werden muß sollte stets am Ende der Seite sein.
SEO-Monitoring kann über Tools wie Sistrix, Searchmetics etc. zusätzliche Erkenntnisse bringen.

Nicht vergessen werden sollte, dass Faktoren der Onpage Optimierung teilweise Hand-in-Hand gehen müssen mit Faktoren der Offpage Maßnahmen. Um hier einige zu nennen:

  • Social-Signals -> Onpage sollte die Möglichkeit geschaffen werden Seiten zu teilen
  • Links und Linkbaits -> Auch hier muß der Anreiß auf der Website selbst geschaffen werden
  • Traffic- und Absprungraten -> gute On-The-Page Optimierung muß Usability und optimale Klickpfade schaffen
By |2016-11-12T22:55:41+00:0017.05.2012|Categories: Onlinemarketing|0 Comments

About the Author:

Als Media-Experte habe ich mich auf die Beratung von Internetunternehmen, technisches Projektmanagement sowie Webpromotion spezialisiert. Ein wesentlicher Schwerpunkt liegt dabei auf der Produktion und Entwicklung von mehrsprachigen Webapplikationen und Special-Interest-Portalen. Meine Dienstleistungen umfassen sowohl Online-Marketing, Online-Publishing, als auch Online-Development. raquo; Mehr erfahren...

Leave A Comment