Suchmaschinenoptimierung: Technik

Aus Wikibooks

Bei Suchmaschinenoptimierung geht es auch darum die Kommunikation zweier Maschinen, der Suchmaschiene und unserem Webserver, so zu gestalten das diese möglichst aussagekräftig ist.

Server[Bearbeiten]

Ein Server ist eine Software welches auf die Kontaktaufnahme eines Client-Programmes wartet und nach Kontaktaufnahme mit diesem Nachrichten austauscht. Dieser ist so ein elementarer Bestandteil der Internetkommunikation, vom sogenannten Webserver werden die Daten an den User auf dessen Anforderung verschickt. Dieses verschicken folgt, wie jede Kommunikation, bestimmen Regeln, einem sogenannten Protokoll, dem Hypertext Transfer Protocol. Die Einhaltung oder dieses Protokoll beeinflusst die Kommunikation mit dem User. So soll z.B. wenn eine Seite gelöscht wurde, nicht einfach nichts gesendet werden, sondern ein bestimmter Code, der eindeutig sagt "ja die Seite ist weg" im http wäre das der Statuscode 404. Sonst könnte der User, oder besser dessen Browser, nicht unterschieden ob es sich eventuell um eine fehlerhafte Verbindung handelt.

Hypertext Transfer Protocol[Bearbeiten]

Dieses Kommunikation ist nun für gewisse Bereiche in der Suchmaschinenoptimierung wichtig, da die Suchmaschinen evtl. korrekte Serverantworten besser bewerten und sich Missverständnisse ausschliessen lassen

  • Oft wird unabsichtlich Double Content erzeugt, wenn die Inhalte über mehrere Arten erreichbar sind. Wenn man über www.site.tv und über 'site.tv oder Domainweiterleitungen das selbe Ergebnis erhält kann das die Suchmaschine als doppelten Inhalt werten, und das deutet für dich Suchmaschine auf Spamming hin. So soll man sich entscheiden auf welchem der Zugänge die Inhalte nun wirklich liegen sollen und alle anderen dorthin weiterleiten (303). Ob man besser www.site oder nur site als echten Ort verwendet ist noch nicht geklärt?

Die .htaccess ist eine Konfigurationsdatei, mit der der Zugriff bestimte Webserver (z. B. Apache) kontrolliert und beschränkt werden kann. Dazu gibts HTACCESS - häufige Anweisungen

Um seine eigene Site zu überprüfen oder eine Analyse zu machen kann man sich die Statusmeldungen und HTTP-Headers des Servers online anzeigen oder mit dem Firefox-Addon Live HTTP Headers im Browser anzeigen lassen.

Uniform Resource Locator[Bearbeiten]

Der Uniform Resource Locator ist die genaue Adressangabe eines Dokuments im Internet, so auch im WWW. Es werden aber so nicht nur reale Dokumente adressiert, sondern auch dynamisch erzeugte Dokumente (z.B. per PHP), wie die meisten Seiten im WWW. Streng genommen verweist ein Webserver der eine dynamische Website ausliefert immer auf ein und das selbe Dokument (meist die index.html). Aber er übergibt unterschiedliche Parameter, die dann entscheiden welcher Inhalt (Startseite, Impressum, Angebot etc) wirklich ausgeliefert wird. Solche Seiten erkennt man manchmal an verkrypteten URLs wie beispiel.de/index.html?cont=456&lang=de&plattform=screen, diese können aber auch versteckt sein und wie normale Dokument ausehen

sprechende URLs[Bearbeiten]

Eine URL mit echten Wörtern die den Inhalt beschreiben (beispiel.de/apfel.html) sagt mehr über diesen aus als verkrypteten URLs wie (beispiel.de/index.html?cont=456&lang=de&plattform=screen) die nur die Anweisungen an das CMS übergeben. Diese echten clean URLs werden als sprechende URLs oder search engine friendly URL (sefURL) bezeichnet.

Allgemein wird zwar angenommen das die meisten Suchmaschinen Wörter in URLs hoch bewerten. Aber es gibt eine Untersuchung die nicht bestätigt (...), dass Seiten mit sprechenden URLs generell weiter vorne zu finden sind[1]. Dennoch schaden solche sprechenden URLs in der Suchmaschine nicht und dienen der Usability.

Eine genau Erklärung und zahlreiche Möglichkeiten wie man den Webserver sefURL-tauglich konfiguriert findet sich auf sefurl.de.

Viele Content-Management-System bieten oft schon die Funktionen oder Erweiterungen an in welchen man sefURL automatisch lassen erzeugen und konfigurieren kann.

Cool URIs don't change[Bearbeiten]

Cool URIs don't change[2] sagt Tim Berners-Lee, der Entwickler des WWW. Das bedeutet URLs, eine Unterart von URIs, sollten über die gesamte Lebenszeit nicht verändert werden. Bookmarks und eingehende Links von anderen Webseiten und auch der Suchmaschine würden so ins Leere führen und so den vom User gewünschten Inhalt nicht darstellen.

Von der Suchmaschine werden diese zwar mit der Zeit (immerhin 1 - 20 Wochen) aktualisiert, aber man verliert an Linkpopularität.

Muss man trotzdem URLs ändern sollte man diese mit einem Statuscode 301 (Moved Permanently) auf den neuen Inhalt weiterleiten.

Ladegeschwindigkeit[Bearbeiten]

Die Geschwindigkeit mit der Seiten, Bilder und andere Elemnete geladen werden, hat Einfluss auf die Rankingposition[3]. Google und andere Suchmaschinen messen der schnellen Ladezeit ein bessere Usability bei und bewerten daher wie schnell eine Seiten komplett geladen wird.

Die Geschwindigkeit von Seiten kann mit Firebug gemessen werden, das Addon YSlow zeigt eventuelle Fehler auf.

Neben einem schlanken und sauberen html und Webserveroptimierung, vor allem durch Caching, schaffen unterschiedliche Maßnahmen Abhilfe:

  • Bilder sollen immer serverseitig resized werden und nicht mit der html Anweisung width.
  • Icons sollten nicht als einzelne Bilder mit je einer Serveranfrage geladen werden, sondern als CSS-Sprites zusammengefasst oder als Data-URL im css.
  • CSS und JavaScript ebenfalls nicht einzeln laden, sondern in einer Datei zusammenfassen und wenn möglich minimieren
  • Ein Content Delivery Network beschleunigt die Auslieferung der gesamten Seite oder kann auch nur Bilder und Elemente (CSS, JS) beschleunigen. Die Umstellung der gesamten Seite oder auch nur die der Zusatzelemente (Bilder, CS) ist technisch aufwändig. Für die meist genutzten Standard JS und CSS Bibliotheken gibt es Drittanbieter wie cdnjs.com, welche diese kostenfrei als CDN anbieten.

Engines[Bearbeiten]

Ob der html-Text händisch geschrieben oder dynamisch erstellt wird ist prinzipiell nicht ausschlaggebend. Rein theoretisch kann man an dem was der Webserver ausliefert dies nicht mal erkennen.

So haben Content-Management-Systeme erhebliche Vorteile bei der Erstellung und vor allem bei der Aktualisierung von Webinhalten. Es ist aber darauf zu achten, das diese trotzdem regelkonforme Webseiten ausliefern.

Quellen[Bearbeiten]

  1. Google-Ranking-Faktoren Pfad
  2. Cool URIs don't change
  3. Matt Cutts: Gadgets, Google, and SEO