OnPage-Optimierung – Projektierung einer Domain – Teil 4

OnPage-Optimierung – Projektierung einer Domain – Teil 4 4.69/5 (93.85%) 13 votes

Auch wenn der Großteil der eigentliche Arbeit von Suchmaschinen für die meisten aller Webseitenbesucher unverständlich bleibt, ist ein gewisses Grundverseiteninterne ständnis für die Funktionsweisen und Prozesse für eine sinnvolle und erfolgreiche Umsetzung bzw. Suchmaschinenoptimierung von Webseiten unerlässlich. Allgemein ist hierzu zu sagen, dass neben der Gewinnung von Daten durch Suchmaschinenspider oder -crawler, die Datenverwaltung und -analyse, auch die Verarbeitung von Suchanfragen ein ausschlaggebendes Kriterium darstellen, auch für eine so relativ kleine Plattform wie Motorikspiel.de die sich dem Nischenthema Motorikspielzeug widmet. Aber wie gelingt es Suchmaschinen eigentlich vollautomatisiert, Inhalte von Internetseiten zu finden, zu verstehen und so zu ordnen, dass bei einer Suchanfrage seitens des Webseitenbesuchers das passende und vor allem sinnvolle Ergebnisse anzeigt wird?

Praxisprojekt - motorikspiel.deAbb.01: OnPage-Optimierung gilt es als langfristig auszurichtende Maßnahme innerhalb von Suchmaschinenoptimierung zu betrachten

Inhaltsverzeichnis:

  1. Analyse & Auswertung einer Suchanfrage – Wie funktioniert das eigentlich?
  2. Content-First-Strategie – Inhalt -> Struktur -> Design
  3. Semantic Web – Gebt dem Content eine strukturelle Bedeutung!
  4. Microdata kann Emotionen erzeugen. Nutze die Möglichkeit!
  5. Interne Verlinkung & Linkjuice – Let it flow!
  6. Mit einer guten Performance zu einer User-Experience die begeistert!

Analyse & Auswertung einer Suchanfrage – Das Information Retrieval System hilft Dir dabei

Verantwortlich für das vollautomatisiert Auffinden, das Analysieren und das Zuordnen von Suchanfragen ist das sogenannte Information Retrieval System (IRS). Ich möchte es an dieser Stelle nicht ausgiebig vorstellen, dass können Andere wesentlich besser, aber ich möchte das Verständnis dafür wecken, um darüber weitere Zusammenhänge in Bezug auf Suchmaschinenoptimierung zu verdeutlichen. Dieses Information Retrieval System bewertet Dokumente, wie bspw. eine HTML-Datei, hinsichtlich Ihrer Relevanz zu einer Suchanfrage und ordnet diese in eine bestimmte, für sie relevante Reihenfolge. Das Information Retrieval System nutzt vorhandene Methoden, um ein solches HTML-Dokument zu untersuchen, um es dann aufgrund des vorhandenen Inhaltes zu bewerten. Je besser diese Bewertung ausfällt, umso höher ist die Relevanz dieses Dokuments zu der vom User getätigten Suchanfrage. Da ein solches System die im Text eines indexierten Dokuments enthaltenen Buchstaben/Zeichen erkennt und diese als Wörter verarbeiten kann, besitzt es somit die Fähigkeit Wörter, die bereits zuvor bei der Keyword-Recherche identifiziert wurden, zu erkennen. Eine Content-Optimierung in der Form, dass sie semantisch korrekt mittels HTML ausgezeichnet werden, vereinfacht den Suchmaschinen die Auffindbarkeit, Analyse und Verarbeitung der Inhalte einer Webseite, mit dem Ziel ein traffic-relevantes Ranking erzielen zu können.

OnPage-Optimierung & Content-Strategie

Die Grundvoraussetzung für die Optimierung OnSite & OnPage ist das Vorhandensein von Inhalten, die überhaupt erst optimiert werden sollen bzw. müssen oder das Festlegen von Strukturen in den zukünftige Inhalte enthalten sein soll. Ziel für mein Praxisprojekt war (und ist) es für alle relevanten Seiten wie der Startseite, den Haupt- & Unterkategorien, sowie den Produktseiten sein, einen fokussierten Text zum jeweiligen Produkt zu verfassen, der alle relevanten Aspekte zu einer Suchanfrage und dem damit verbundenen Bedürfnis nach Informationen hinsichtlich Hersteller, Material, Preis oder Bewertungen angemessen berücksichtigt und dem Webseitebesucher und potentiellen Kunden Mehrwerte bietet.

Aufgabe der Onpageoptimierung war (bzw. ist) es, neben dem Domainnamen, der URL-Struktur, Grundlagen dafür zu schaffen, dass die neu zu strukturierende Webseiten eine optimale Indexierung erzielen können. Um im weiteren Verlauf auch in Bezug auf Rankings, Traffic und später auch in Bezug auf Conversion-Optimierung eine wirtschaftlich akzeptable Entwicklung erfahren zu können. Dazu stelle ich Euch in diesem Artikel 5 Bereiche der Onpage-Optimierung, die ich auf mein „Motorikspiel-Projekt“ angewendet habe, im folgenden etwas näher vor.

1. Content-First-Strategie – Inhalt -> Struktur -> Design

Neben der strukturellen semantischen Auszeichnung von Inhalten, ist auch die Reihenfolge der Inhalte in denen sie geladen und gecrawlt werden können nicht irrelevant und folgt gewissen Regeln die auch der Accessibility zu Gute kommen. Der aktuelle strukturelle Aufbau der Contentseiten beginnt, ähnlich dem erkennbaren Aufbau aus Abbildung 02, im HTML-Code mit idealerweise mit dem Header und der darin enthaltenen Hauptnavigation, dann der Content und am Ende der Footer. Für Webseitenbesucher ist die Reihenfolge des Aufbaus des HTML-Quellcodes natürlich vollkommen irrelevant, Suchmaschinen-Crawler allerdings müssten sich im Fall einer mit Links gespickten Sidebar oder Marginalspalte die vor der „Content-Spalte“ geladen wird, erst durch sämtliche interne Links der Hauptnavigation und einer solchen Sidebar durcharbeiten, bevor sie zum für die sie relevanten Contentbereich gelangen.

Das alt-Attribut ist nicht primär ein SEO-Feature. Es ist ein UX- bzw. Accessibility-Feature und hat, weil Google diese Aspekte bei der Beurteilung von Webseiten berücksichtigt, auch SEO-Relevanz.

Macht Euch vor der Strukturierung der Webseiteninhalte und der daraus resultierenden Reihenfolge der Elemente im HTML-Code unbedingt Gedanken darüber und leitet für die Inhaltstypen Maßnahmen zur Strukturierung ab. Eine Sidebar oder Marginalspalte die optisch gesehen vor der Content-Spalte zu sehen ist, kann auf Basis semantischer Auszeichnung, ausschließlich mit CSS positioniert werden! Nicht zuletzt aus den bereits genannten Gründen bezüglich der Umsetzung eines Projektes, präferiere ich den Ansatz „Content-First“. Dieser besagt nichts anderes, als sich auf Basis der gesetzten Ziele Inhalte zu erstellen, diese Ihrer Bedeutung entsprechend mit HTML auszuzeichnen und diese Struktur dann in ein conversion-optimiertes Design zu gießen und dann auf Basis aktueller Webstandards umzusetzen. Die Crawler oder welche Tools auch immer Eure Webseiteninhalte erfassen werden bzw. sollen, werden es euch danken und der Webseitenbesucher sieht keinen Unterschied. Zumindest dann nicht, wenn der Webdesigner oder Frontend-Entwickler seine Arbeit gut gemacht hat. Der Weg Konzept, Design, Entwicklung und dann ein wenig SEO obendrauf, damit das Ganze dann noch gut rankt, Traffic bringt und Umsatz generiert, funktioniert äußerst selten ;o)

2. Semantic Web – Gebt dem Content eine strukturelle Bedeutung!

Unter Semantik versteht man die Beziehung zwischen redaktionellen Inhalten (Text, Bild & Video) und deren Bedeutungen. Da auch nahezu jeder HTML-Tag eine semantische Bedeutung besitzt, ist es wichtig diese korrekt einzusetzen. Denn Suchmaschinen bzw. deren Crawler, die nicht über das Herstellen einer Verbindung von Text und Bedeutung verfügen, sind auf semantische Auszeichnung der Inhalte angewiesen. Ein Beispiel hierfür ist die korrekte Kennzeichnung der wichtigsten und aussagekräftigsten Überschriften auf einer Webseite – der Headlines h1 & h2. Da Webseiteninhalte wie Überschriften Rankingkriterien darstellen und den Suchmaschinen eine Zuordnung zu einer Suchanfrage erleichtern, sollten solche Inhalte unbedingt ihrer Bedeutung entsprechend ausgezeichnet werden.

Onpage-Optimierung - Content und SemantikAbb.02: Gebt dem Content eine strukturelle Bedeutung

Wenn ich im Vergleich zur aktuellen Inhalts-Struktur und den am rechten Rand der obigen Abbildung verwendeten semantisch aussagekräftigen HTML-Elementen div-Container verwendet hätte, wäre die „Aussagekraft“ hinsichtlich der Bedeutung der Inhalte fast gänzlich aufgehoben. Dazu gehört auch das Bilder mit dem alt-Attribut aussagekräftig beschrieben werden sollten. Das alt-Attribut ist nicht primär ein SEO-Feature. Es ist ein UX- bzw. Accessibility-Feature und hat, weil Google diese Aspekte bei der Beurteilung von Webseiten berücksichtigt, auch SEO-Relevanz. Verschwendet nicht dieses Potential! Es ist keine Mehrarbeit, es sind lediglich genauere Fähigkeiten in Bezug auf die semantische Auszeichnung von Inhalten notwendig. Je nach thematischer Ausrichtung der Inhalte einer Webseite, gibt es zudem zusätzliche Auszeichnungsmöglichkeiten von Inhalte. So können bspw. Bewertungen, Preise oder auch Breadcrumb-Navigationen so gekennzeichnet werden, dass diese Daten auch in Suchergebnisseiten Ihre Vorteile zu Tragen bringen können. Mehr dazu im folgenden Abschnitt „Microdata“.

3. Microdata kann Emotionen erzeugen. Nutze die Möglichkeit!

Da eine effektive Strukturierung und somit zielgerichtete OnPage-Optimierung der Inhalte erfolgt ist, sollte dies im Idealfall zusammen mit entsprechenden Onsite-Optimierungsmaßnahmen, auch die Suchergebnisse entsprechend optimiert innerhalb der SERPs dargestellt und wahrgenommen werden. Das heißt, die „Präsentation von Inhalten“ innerhalb eines Snippets lösen Emotionen aus, die den Betrachter eher zum Klicken auf ein solch angereichertes Snippet „verführen“, als sie dies bei einem normalen „weniger optimierten Suchergebnis“ tun würden. Beim Vergleich von Suchergebnissen auf Basis von Microdata und ohne wird unmissverständlich klar, dass die Unterschiede bei der „Erkennung der Bedeutung der Inhalte“ gravierend sind und man mit Microdata den Suchmaschinen wesentlich detailliertere Aussagen zu den Inhalten liefern kann, als wenn man darauf verzichten würde. Auch um dies zu ermöglichen, informieren die drei großen Suchmaschinen Google, Yahoo und Bing unter schema.org über eine einheitliche Sprache für Microdata, die die Grundlage dieser Herangehensweise bildet. Einen Vorteil den diese umzusetzen wissen. Wie Suchergebnisse solch ausgezeichneter Inhalte, in Form sogenannter Rich Snippets in den Suchmaschinenergebnisseiten (SERPs) dargestellt werden, wird durch folgende Abbildung bei einer Suche Keyword-Kombination „Pinolino Laufrad“ deutlich.

Snippet auf Basis von Microdata ausgezeichneten ProduktdatenAbb.03: Suchmaschinenergebnis (Snippet) inklusive der Anzeige von Produktdaten auf Basis von Microdata ausgezeichneten Inhalten

Das obige (nicht existierende) Snippet basiert auf den selben Inhalten, mit Ausnahme der mittels Microdata ausgezeichneten Produktinformationen auf der Produktseite des „Pinolino Laufrades“. Die Wirkung auf den Betrachter ist bei den meisten Suchenden erheblich, weil allein die ins Auge fallenden Sterne für die Bewertung des Produktes die Blickrichtung ganz klar beeinflussen und auf sich ziehen, zusammen mit einem für den Suchenden attraktiven Preis und einer transaktionalen Ansprache der restlichen Elemente dieses Snippets, werdet Ihr wesentlich dichter am Klick und einer höheren CTR sein, als bei der darüber liegenden (von mir manipulierten) Variante, ohne Microdata. Sicherlich wäre es jetzt auch möglich, die Strukturierung der Inhalte und das dafür notwendige HTML, inklusive den Microdata-Attributen an dieser Stelle vorzustellen, aber das würde sicherlich den Rahmen sprengen. Wenn entsprechendes Interesse bei Euch vorliegen sollte, würde ich diesbezüglich selbstverständlich einen extra Artikel zum Thema „Microdata & Rich Snippets“ verfassen. Wer allerdings nicht so lange warten möchte oder kann, dem kann ich Dankenswerterweise bietet Google mit dem Rich Snippet Testing-Tool die Möglichkeit das Markup auch im Vorfeld testen zu können. Wer auf diese Weise seinen Quellcode getestet hat und seinen mit Microdata angereicherten Inhalten direkt bei Google „einreichen“ möchte, kann dies im Google-Supportbereich tun.

Screenshot Rich Snippet Testing-ToolAbb.04: Screenshot vom Rich Snippet Testing-Tool

Im Vergleich dazu im „echten Snippet“ (siehe Abbildung 3 unten), ohne Google+ Autorenbild und auch ohne Angabe der Anzahl an Bewertungen. Für die Darstellung aller gekennzeichneter Inhalte gibt es im übrigen keine Garantie! Die zurückliegenden Monate haben deutlich gezeigt, dass Google hier selbst innerhalb von Tagen aus einem Ergebnis mit lediglich einem angezeigten Google+ Profil, ein Snippet mit Bewertungssternen, abgegebener Anzahl an Bewertungen und Preisangabe machen kann und umgedreht. Da neuerdings von Google auch ein Firmenlogo mit in den SERPs als weiterer Faktor aufgenommen werden kann, wurde dies, ebenfalls mit Microdata auf Basis des itemtypes „Organization“ im Praxisprojekt, implementiert.

4. Interne Verlinkung & Linkjuice – Let it flow!

Ein weiterer wichtiger Aspekt der OnPage-Optimierung, der in der Suchmaschinenoptimierung oftmals sehr stiefmütterlich behandelt wird, ist der der internen Verlinkung. Wesentliches Ziel dieser Verlinkungen innerhalb eines Auftrittes ist auch bei meinem Praxisprojekt Motorikspiel.de, um dass es sich in dieser kleinen Artikel-Serie dreht, eine zielgerichtete Verteilung des Linkjuice innerhalb der gesamten Website sein, von der Startseite, über die Hauptkategorien und allen Unterseiten. Der meiste Linkjuice kommt, wie bei den meisten anderen Seiten auch auf und von der Startseite, über diese werden dann die internen Links wie Navigationen, Breadcrumb-Navigation oder Teaserlinks auf alle weiteren Seiten weitergeleitet. Dabei verteilt sich der Linkjuice aktuell auf alle ausgehenden Links zu in etwa gleichen Teilen. Denn beim momentanen Umfang an Kategorie- und Produktseiten (Stand Mai 2013), können noch alle Seite direkt über die Hauptnavigation abgebildet werden. Würde ich diese Anzahl ohne darüber nachzudenken weiter erhöhen, hätte dies zur Folge, dass der Linkjuice der einzelnen Links abnimmt. Ein möglicher Ansatz einer smarten und nicht riskanten internen Verlinkung wäre es beispielsweise, dem Webseitenbesucher nicht immer nur die gleichen Links (bspw. Footer oder Marginalspalte), sondern auch im Sinne einer geringeren Abbruchquote, zu der jeweiligen Seite auch wirklich passende Lnks anzuzeigen (produktspezifisch)!

Die Performance von immer komplexer werdenden Webanwendungen zu bestimmen, ist bereits seit langem ein äußerst interessanter Bereich und das nicht erst seit dem Google bekannt gab, dass die Performance von Webseiten ein Ranking-Kriterium darstellen.

Eine weitere Möglichkeit für die Verbesserung der internen Verlinkung ist die so genannte und auch in meinem Projekt verwendete „Breadcrumb-Navigation“. Ursprünglich wurde diese Art der Navigation dafür eingeführt, um dem Webseitenbesucher das Auffinden der eigenen aktuellen Position innerhalb einer Webseite zu erleichtern. Ohne großen Aufwand erstellt und an entsprechen prominenter Position im Gesamtkontext der Seite integriert, kann eine Breadcrumb-Navigation auch für die seiteninterne Linkgebung von Vorteil sein. Denn so kann der Webseitenbesucher ohne zu scrollen, direkt auf anderen Seiten, wie der dazugehörigen Haupt- oder Subkategorie quer einsteigen und das ganz ohne die Hauptnavigation zu nutzen. Je kürzer „der Weg“ einer Kategorie- oder Produktseite in der Hierarchie ausgehend von der Startseite ist, desto mehr Linkjuice erhält diese. Das gilt für dieses hier vorgestellte Projekt, als auch für alle anderen Webseiten. Daher ist es für alle Seiten, mit denen Umsatz erzielt werden soll und für die man daher auch gute Rankings bei relevanten Suchbegriffen vorweisen muss, um darüber Traffic zu generieren, vor allem von prominenter Seite, wie bspw. der Startseite, benutzerfreundlich und intuitiv verlinkt werden. Um den Linkjuice einer Seite aber auch ein wenig zielgerichtet zu leiten, kann man unwichtige Links wie zum Impressum, Kontakt, den AGBs oder anderen wiederkehrenden Verlinkungen mittels JavaScript ausspielen und dann in diesem Fall davon profitieren, dass Suchmaschinen wie Google diese nicht bzw. schlecht auswerten und somit in die Linkjuice-Verteilung mit einfließen lassen können. Da es in meinem Praxisprojekt mit dem Impressum lediglich eine Seite gibt, die in diese Kategorie fallen würde, habe ich in diesem Fall davon abgesehen. Eine kleine Anmerkung an dieser Stelle an diejenigen die öffentlich-rechtliche Webangebote betreuen. Das diese Inhalte barrierefrei sein müssen heißt auch, dass sämtliche Inhalte auch ohne JavaScript zugängig sind. Dort ist dieser Ansatz der Maskierung von Links mittels JavaScript nicht erlaubt, da diese Links ansonsten nicht bzw. schwer zugängig sind.

Mögliche Anforderungen für seiteninterne Verlinkung:

  • Verlinkungsprinzip wie bei einer Champagnerpyramide (stärkste Seite (obersters Glas), verlinkt auf darunter liegende Seiten (Gläserebenen), um den Linkjuice weiter zu leiten)
  • traffic- und conversion-relevante Seiten gezielt verlinken und somit seitenintern stärken
  • intuitive und benutzerfreundliche Verlinkung für bessere Wahrnehmung (Gestaltung, Wording, Positionierung)
  • flache Hierarchie mit geringer Klicktiefe
  • interne Linkstruktur berücksichtigt neben Navigationselementen, auch Contentlinks
  • Verwendung von themenrelevanten Keywords innerhalb der internen Verlinkungen (Keyword-Recherche)
  • Umsetzen eines internen Verlinkungsmix aus Text-, URL- & Bild-Links

Die interne Linkstruktur ist also idealerweise intuitiv und orientiert sich an den Inhalten, im Sinne der Bedürfnisse des Webseitenbesuchers. Das ist im Normalfall die Hauptnavigation, wobei sich an den Navigationsarten wie einem Flyout, die Geister scheiden. Das Argument es sei doch alles Geschmackssache, kann man so natürlich nicht stehen lassen. Denn vieles in Bezug auf das Benutzerverhalten kann man messen und wenn man es messen kann, kann man in Erfahrung bringen, ob der jeweilige gestalterische Ansatz von den Nutzer angenommen wird oder nicht. Ein geringe Nutzung einer Navigation oder einzelner Bereiche der Navigation, können in einem solchen Fall schon eine Aussage darüber treffen ob Optimierungspotential vorliegt oder nicht. Da wie bereits erwähnt, für Google die UX nicht ganz unwichtig ist, sollte man auch hier nicht seinem Bauchgefühl vertrauen, sondern den Daten aus eurem Webanalyse-Tool.

Tool-Empfehlung: Zur Identifizierung eurer stärksten internen Seiten, kann ich Euch das Tool strucr nur wärmsten empfehlen. Denn strucr ist entwickelt worden, um die interne Linkstruktur von Websites besser zu analysieren und leichter Schwachpunkte aufdecken zu können und somit die seiteninterne Verlinkung ggf. zu optimieren.

5. Mit einer guten Performance zu einer User-Experience die begeistert

Die Performance von immer komplexer werdenden Webanwendungen zu bestimmen, ist bereits seit langem ein äußerst interessanter Bereich und das nicht erst seit dem Google bekannt gab, dass die Performance von Webseiten ein Ranking-Kriterium darstellen. Diese Bekanntgabe von Google gegen Ende 2009, hat allerdings erheblich dazu beigetragen, dass die Performance von Webseiten zunehmend in den Fokus rückte und seit dem in den Projekten ein festverankerter Bestandteil ist bzw. sein sollte! Denn seit der immer breiter werdenden Nutzung des Internets und den gestiegenen Anforderungen seitens der Anwender an die Webseiten, wurden diese zunehmend komplexer. Und da diese Komplexität folgerichtig auch zu Einschränkungen in Bezug auf die Performance führte, welche sich in erster Linie durch längere Wartezeiten für die Anwender äußerte, wurde es unabdingbar die Performance untersuchen und analysieren zu können bzw. zu müssen. Auf Basis dieser Notwendigkeit, die zusehends auch von vielen Kunden als solche erkannt wird, entstanden zahlreiche Tools, von denen ich insbesondere zur Performance-Analyse seit einigen Jahren WebPageTest verwende. Mit dieser Online-Anwendung kann man das Ladeverhalten beim ersten und bei wiederkehrenden Seiten analysieren und je nach Content-Art (Text, Bild,…) auswerten und ggf. optimieren. Da die Web-Performance-Optimierung für mich keine neues Betätigungsfeld darstellt, habe ich die Aufwände für eine Optimierung der Ladegeschwindigkeit für dieses Praxisprojekt bewusst in Grenzen gehalten. Nicht zu letzt auch deshalb, weil ich das verwendete Theme mit seinen zahlreichen CSS-Dateien nicht zu sehr modifizieren wollte und auch ein Verzicht der Implementierung der Webfonts, die von Google geladen werden, nicht ändern wollte.

Performance-Analyse von motorikspiel.deAbb.05: Performance-Analyse mit WebPageTest

Ein weiteres recht interessantes Tool, welches man hinsichtlich der Performance-Optimierung einsetzen kann, ist Onpage.org. Denn in de vergangenen Wochen hat dieses Tool durchaus interessante Features, wie bspw. den sogenannten „Minifier“, erhalten. Dieser Minifier ermöglicht es CSS & JavaScript zu komprimieren. So können unter anderem Leerzeilen, Leerzeichen, aber auch Kommentare aus dem CSS entfernt werden. Zudem kann Onpage.org auch mehrere CSS-Dateien zu einer einzigen Datei zusammenführen, und somit die Anzahl HTTP-Requests reduzieren.

Anmerkung: Da ich solche CSS-Optimizer bereits 2005 getestet habe und kein Freund von automatischer Komprimierung ohne Qualitäts-Check bin, kann ich jeden nur raten sein Layout nach einer solchen Zusammenführung von Dateien zu testen. Denn nicht selten werden Zeilen so komprimiert, dass der ein oder andere CSS-Hack oder IE-Filter dadurch zerschossen wird und somit alle folgenden CSS-Eigenschaften nicht mehr korrekt ausgeführt werden. Und auch wenn ich bei der Umsetzung auf ein Premium WordPress-Theme zurückgegriffen habe, heißt dies nicht das dies kein Optimierungspotential in Bezug auf die Performance besitzt. Gleiches gilt aber auch für die von mir bereitgestellten Inhalte, in diesem Fall in erster Linie auf das Bildermaterials zu. Denn bei langsamen Internetverbindungen sind nicht selten die Bilder für den Verlust der Benutzerfreundlichkeit verantwortlich. Die Komprimierung von Bilddateien ist daher ein vielversprechender Ansatz die Dateigröße eines zu ladenden HTML-Dokumentes teilweise signifikant reduzieren zu können.

Mögliche der Anforderung für eine Verkürzung der Ladezeit:

  • Reduzierung von HTTP-Requests – Komprimierung bzw. Minifizierung von JavaScript & CSS
  • Verwendung von Sprite-Grafiken zur Reduzierung von mehreren Icon-Grafiken
  • Verwendung von CSS3 zur optimalen Trennung von Content & Layout
  • Optimieren des Cachings von Webseiten
  • Komprimierung von Bilddateien

Wie letzten Absätze in diesem Artikel hinsichtlich der clientseitigen Performance-Optimierung haben deutlich werden lassen, ist die Performance von Webseiten ein sehr weitläufiges Themengebiet. So ist es auf der anderen Seite allerdings auch serverseitig möglich, mit einem effektiven Caching-Mechanismus und dem Einsatz von Expires Headers und Cache-Control, eine akzeptable Performance erreichen zu können. Insbsondere auf die beiden letztgenannten Bereiche besitzt mein Praxisprojekt noch einiges an Potential, was in den nächsten Monaten zunehmend verbessert werden wird.

Anmerkungen, Frage & Fazit

Die hier genannten Punkte hinsichtlich der OnPage-Optimierung erheben keinen Anspruch auf Vollständigkeit für die Vorgehensweise, sondern bilden lediglich meine Arbeitsschritte beim SEO-Studium an der afs Akademie für das hier genannte Praxisporjekt Motorikspiel.de ab. Dennoch hoffe ich Euch mit dieser Vorgehensweise einen kleinen Einblick darin gegeben zu haben, mit dem man ein neues Online-Projekt aufsetzen kann.

Wenn Interesse Eurerseits vorliegt, würde ich die zurückliegenden vier recht umfangreichen Artikel auch in ein PDF-Dokument zusammenfassen und hier für Euch zum Download anbieten. Auch wenn die Resonanz für einen vollkommen neuen Blog mit 34 Kommentaren und über 200 sozialen Signalen für die bisherigen drei Artikel recht beachtlich ist, würde ich vorher gern in Erfahrung bringen, ob sich der Aufwand auch lohnt ;o)

Über den Autor

Heiko
Heiko Stiegert () ist als Senior SEO Consultant für den Auf- und Ausbau der SEO- & Online-Marketing-Strategien innerhalb der mediaworx berlin AG verantwortlich. Sein Hauptaugenmerk liegt hierbei in der Erstellung von Analysen, dem Entwickeln von langfristig und nachhaltig angelegten Konzepten zur Erreichung der Marketing- & Vertriebsziele.

11 Kommentare zu "OnPage-Optimierung – Projektierung einer Domain – Teil 4"

  1. Tolle Übersicht, nur eine Kleinigkeit ist mir noch nicht so ganz klar bei der Semantik.

    Du schreibst:
    „Wenn ich im Vergleich zur aktuellen Inhalts-Struktur und den am rechten Rand der obigen Abbildung verwendeten semantisch aussagekräftigen HTML-Elementen div-Container verwendet hätte, wäre die “Aussagekraft” hinsichtlich der Bedeutung der Inhalte fast gänzlich aufgehoben.“

    Jetzt bin ich weder Grafikerin noch Programmiererin und frage mich, warum ein kleines div so große Auswirkungen hat. Kannst du mir das noch genauer erklären?

    Danke und LG,
    Sabrina

    • Vielen Dank für das Lob zum Artikel ;o)

      Zu deiner Frage: Ein div-Container sagt von der semantischen Bedeutung seiner Inhalte nichts aus. Darin kann ein Zität, eine Überschrift, ein Textabsatz, eine Adresse und wenn ich es auf die Spitze treibe, tabellarische Daten enthalten sein. Semantisch korrekt und aussagekräftig wären aber „blockquote“, „h1“, „p“, „address“ oder „table“.

      Ich hoffe das ich deine Frage damit beantworten konnte?

  2. Michael Finger | 21. Mai 2013 um 16:19 |

    Hallo SeoCouch,
    ich habe ja bis jetzt alle Artikel verschlungen und würde mich sicher über eine pdf freuen, wo man noch mal mehr lesen kann und wenn es doch mal dazu kommt das die Seite geschlossen wird nachlesen kann. Sonst bin ich mehr und mehr der Mensch der sich nichts mehr Druck und da meiste auf Webseiten/Blogs liest.

    Mir sind einige Auszeichnungen im html bei dem Projekt aufgefallen, die ich so noch nicht gesehen habe. Gibt es zu den etwas anderen Auszeichnungen im html auch noch mal eine kurze oder auch gerne eine längere Beschreibung. (Ich weiß das es sehr viel Arbeit macht den Erklärbar zu spielen)

    • Vielen Dank für deine Anmerkung zu der Artikelserie Michael. Dein Wunsch nach einem PDF ist bei mir „abgespeichert“ ;o)

      Hinsichtlich der (etwas anderen auf Microdata basierenden) Auszeichnung von Inhalten, werde ich mir mal Gedanken machen und ggf. einen extra Artikel veröffentlichen, falls es das sein sollte was dich interessiert?

      • Michael Finger | 21. Mai 2013 um 16:59 |

        ja genau das mit dem Microdata ist es was mir sehr stark aufgefallen ist und es wäre wunderbar wenn man mal was auf deutsch zu dem Thema lesen könnte. Vor allem weil ich befürchte das es den html aufbläht und somit der eigentliche Inhalt ja weniger wird.

        Aber ich habe gerade mal meine mit deiner Projektseite auf der Seite für „Test-Tool für strukturierte Daten“ verglichen, da werden bei dir natürlich viel mehr Daten angezeigt, keine Frage.

        Aber so Sachen wie doppelten Meta angaben finde ich immer etwas komisch. Aber andere Auszeichnungen finde ich sehr Interessant und werde es mir sicher noch mal genauer anschauen.

  3. Du benutzt für deine Rich Snippets ja Amazon-Rezensionen. Wie sieht es denn da mit der Konformität zu den Google Guidelines aus? Darf man Bewertungen von anderen Websites als Rich Snippets für eigene Websites verwenden? Ich habe nämlich auch schonmal darüber nachgedacht, sowas zu machen, konnte aber auf schema.org nichts dazu finden.

  4. Danke für diesen Wahnsinns-Artikel. Bin auch sehr überzeugt von der Performance deines vorgestellten Projekts. Lädt schnell wie Sau…

    Zum Thema Linkjuice und interne Links würde ich noch Kannibalismus ansprechen, denn das fällt mir bei vielen auf. Auch bei Seiten von guten SEOs… Dadurch können gute Rankings stark verzögert werden oder gar nicht Zustande kommen. Daher sollte man sich immer vorab ganz genau überlegen, welche Seite für was ranken soll. Vor allem jetzt wo es deutlich schwieriger geworden ist mit mehreren Seiten in den Top 100 zu sein 😉

    Viele Grüße aus Innsbruck!

  5. Sehr schöner Artikel! Ich muss zugeben, dass ich speziell was die h- und Alt-Tags der einzelnen Elemente angeht, einiges vernachlässigt habe. Aber da es eben, wie du schon schreibst, kein großer Aufwand ist sollte man sowas auf jeden Fall nachkommen.

    Ich hätte noch eine Frage was die Implementierung der Amazon Produkte auf deiner Seite angeht. Nutzt du dafür WordPress Plugins oder realisierst du die Sachen mit Hilfe der Amazon API? Mit letzterem bin ich eigentlich sehr zufrieden, nur leidet die Performance bei manchen Seiten doch recht schwer darunter.

  6. WM 2014 - Thomas | 4. September 2013 um 16:11 |

    Hallo Heiko,

    vielen Dank für die tolle Artikelserie. Ich habe es gleich bei Amazon mit einem Kauf über Deinen Affiliate-Link belohnt :)

  7. Toller Artikel …wünsche euch eine schön zeit heute abend in köln :)

2 Trackbacks & Pingbacks

  1. Die Sache mit den einfachen Geldverdiensten via Blogs | basic
  2. Onpage-Tool.de: Kostenloses OnSite-SEO-Tool mit WDF-Analyse | Newsider

Kommentare sind deaktiviert.