HTTP

Aus Online Marketing Wiki
Wechseln zu: Navigation, Suche


Hypertext Transfer Protocol ist das im Internet verwendete Protokoll, wenn es um die Übertragung von Dokumenten geht. Durch das verwendete Protokoll decodiert der Browser die Auszeichnungszeichen, sog. Tags, die in den HTML- Dokumenten vorhanden sind. Dadurch kann der Browser die Inhalte darstellen. Eingesetzt wird das HTTP-Protocol insbesondere, um Webseiten aus dem World Wide Web in einen Webbrowser zu laden.

Ziel des HTTP-Protocol ist es, die Art und Weise der Anforderungen zum Senden von Informationen an den Webserver festzulegen, sowie die Rahmenbedingungen der Datei klar einzugrenzen. Das HTTP-Protocol legt somit auch fest, in welchem Format Header und Inhalte von Dateien an das angeforderte Programm, Webbrowser, übertragen werden.

Vereinfacht: HTTP legt fest, wie der Webclient mit einem Server kommuniziert, um dem Client die von ihm angeforderte Datei anzuzeigen.

Funktionsweise

Der erste Schritt ist die clientseitige Anforderung einer Internetseite (URL) über TCP. Er schickt damit ein Request an den Server, welche darauf eine Antwort (Response) erwidert. In dieser Antwort wird auch immer ein HTTP Status Code übermittelt, mit dem Ziel Auskunft über den Erfolg der Anfrage zu geben. War die Anfrage erfolgreich, erhält der Client einen dreistelligen Code im HTTP- Header. War die Anfrage jedoch erfolglos, was bedeutet, dass die Ressource nicht gefunden werden konnte, wird dem Client ein Fehlercode 404 angezeigt.

Eigenschaften HTTP-Protocol

  • objektorientiert & offen: Durch diese Eigenschaften ist die Implementierung anderer Datentypen unkompliziert
  • zustandslos: Die Eigenschaft führt dazu, dass es keine Speicherung der Sitzung oder Session-ID´s während der Kommunikation gibt, die zwischen Client und Server abläuft. Eine solche Speicherung findet erst im Browser des Nutzers statt, z.B. über ein HTTP- Cookie.

Bedeutung SEO

Die Crawler der Suchmaschinen ist beim Zugang zu Webseiten von dem HTTP abhängig. Dies kommt davon, weil der Crawler beim Durchsuchen des Internets nach Webinhalten als User-Agent oder Webclient handelt. Er muss also eine Anfrage an den Server schicken. Die Webmaster haben hierbei verschiedene Möglichkeiten, je nach Server Modell. Sie können den Server so konfigurieren, dass der Crawler Zugang erhält. Hierbei ist es z.B. möglich in der Datei Robots.txt allgemeine Einstellungen zu tätigen oder aber, dass eine Htaccess -Datei, welche auf dem Server liegt, diese Einstellungen weiter aufgliedert.

Außerdem können z.B. mod-rewrite bei Apache HTTP Servern in Kombination mit der htaccess-Datei dazu eingesetzt werden, genau solche Einstellungen zu tätigen. Vor allem aber ist es wichtig keine Fehlercodes auszugeben, da die Seiten von den Crawlern ausgeschlossen werden. Dies führt zu einer schlechten Bewertung der Suchmaschine, z.B. von Google. Eine Umschreibung von dynamischen in statische URL´s ist von Vorteil. Um die Linkpopularität einer Seite weiter zu geben, ist es sinnvoll dauerhafte 301 Weiterleitungen zu wählen.