• Facebook
  • Google+
  • Twitter
  • XING
09.07.2006

Traffic-Log Muster

Die relative Seiten-Popularität eines Webauftritts, die Zahl der Besucher, die über Links von anderen Seiten hereinkommen, und der Traffic aus Suchmaschinen-Anfragen folgen weiterhin einer Zipf-Verteilung.

 

by Jakob Nielsen (deutsche Übersetzung) - 10.07.2006

 

Vor zehn Jahren habe ich aufgezeigt, dass die Seiten-Popularität eines Webauftritts einem physikalischen Kraftgesetz folgt. Kurz gesagt: Ein paar wenige Seiten waren extrem populär, ein grösserer Teil war gemässigt populär, und beim Rest handelte es sich um die grosse Menge der schwach besuchten Seiten.

Mathematisch ist die Zipf-Kurve eine Gerade auf einem doppel-logarithmischen Diagramm, bei dem wir die Seiten mit ihrem Popularitätsrang auf der x-Achse und die Zahl der Treffer auf der y-Achse eintragen. Die alten Analysen haben gezeigt, dass die gleiche Verteilung beides beschreibt, die Zahl der von aussen auf die Seiten kommenden Besucher und den Traffic, den die Mitarbeiter eines Unternehmens selbst erzeugen, wenn sie auf fremde Websites gehen.

Gelten diese Ergebnisse auch heute noch? Das Web ist heute 2.200 Mal so gross, die Traffic-Patterns könnten sich also geändert haben. Genau das wollte ich herausfinden.

Die Seitenpopularität

Das folgende Diagramm zeigt den Traffic auf useit.com während eines erst kurz zurückliegenden Zeitraums von acht Wochen. Jeder Punkt steht für eine Seite, und die Seiten sind nach ihrer Popularität geordnet. Die populärste Seite (die Startseite) hatte 261.024 Abrufe.

Bei den populärsten 350 Seiten folgen die empirischen Daten der Theorie bemerkenswert gut. Danach allerdings weichen die Daten vom theoretischen Pfad ab: Die nächsten 700 Seiten haben weniger Traffic als vorausgesagt.

 

Seiten sortiert nach Traffic-Rangordnung

Die kleine Bild oben rechts zeigt das entsprechende Diagramm von meiner Analyse vor zehn Jahren. Es ist fast unheimlich, wie stark es den neuen Daten ähnlich sieht. Insbesondere fällt das Ende bei der alten Kurve genau so ab und lässt somit eine Menge Seiten mit wenig Traffic vermissen.

Das Abbildung des "grossen Rests" fehlt in beiden Diagrammen, weil die Sites noch nicht genügend alte Inhalte angesammelt haben, um die erwartete Anzahl von Seiten mit wenig Traffic zu haben. Es dauert wahrscheinlich Hunderte von Jahren, bis eine Website, die von einer einzelnen Person (oder auch nur von einer einzelnen Marketing-Abteilung) geschrieben wird, eine Viertelmillion Seiten angesammelt hat.

Traffic von anderen Websites

Das nächste Diagramm zeigt die Anzahl der Besucher, die innerhalb des Zeitraums von acht Wochen über Links von anderen Websites auf unsere Site gelangt sind. Jeder Punkt steht für eine externe Website.

von anderen Websites verlinkt

In diesem Fall umschlingen die empirischen Daten die rote Linie der Theorie auf ihrem ganzen Weg bis hinab zur x-Achse. Der Unterschied ist: Hier fehlen keine Sites, die auf useit.com verlinken könnten, und eine grosse Zahl dieser Websites sind gering frequentierte Blogs, die nur gelegentlich einzelne Nutzer referenzieren.

Eine offensichtliche Ausnahme von der Theorie ist, dass die Website, über welche die meisten Besucher hereingekommen sind, für viel mehr Besuche verantwortlich ist als vorausgesagt. Über Google (angezeigt als extragrosser Punkt) kamen 257.040 Besucher; nach der Theorie hätten es nur 52.479 sein sollen.

Google ist demzufolge fünfmal so populär wie in der Theorie vorausgesagt. Aber dieses Phänomen könnte verschwinden, wenn andere Suchmaschinen aufholen. Ob dies eintritt, kann uns nur die Zeit zeigen.

Und: Google ist zwar überproportional wichtig, aber wenn man sie zusammenzählt, erzeugen die übrigen 35.631 mit useit.com verlinkten Websites 35% mehr Verkehr. Es ist also keine gute Idee, sich nur auf die Nummer 1 zu konzentrieren.

Suchmaschinen-Anfragen

Um useit.com zu finden haben die Nutzer über sämtliche verschiedenen Suchmaschinen hinweg insgesamt 110.399 verschiedene Suchanfragen eingegeben. 83% dieser Anfragen wurden in den besagten acht Wochen jeweils nur ein einziges Mal benutzt.

Die 10 häufigsten Anfragen erzeugten 10% des gesamten Verkehrs, jede davon ist also eindeutig wichtiger als die, die nur einen einzigen Besucher hereingebracht haben. Doch wenn man sie zusammenzählt, haben die einfach benutzten Anfragen drei Mal so viel Verkehr eingebracht wie die 10 meistbenutzten Anfragen. Diese Statistik zeigt, wie fehlerhaft es ist, die Suchmaschinen-Optimierung nur auf ein paar besonders leistungsstarke Anfragen zu konzentrieren. Ihre Website muss gefunden werden, sobald die Nutzer relevante Anfragen eingeben - und normalerweise gibt es dafür sehr viele Möglichkeiten.

Das folgende Diagramm zeigt die Verteilung der Suchmaschinen-Anfragen, sortiert nach der Anzahl der eingehenden Besucher, welche das jeweilige Suchwort benutzt haben.

Verteilung der Suchmaschinen-Anfragen

Das Diagramm zeigt grob die erwartete Verteilung, aber mit einer Ausbuchtung bei den Anfragen Nr. 5 bis 300. Mit anderen Worten, Anfragen im mittleren Bereich sind wichtiger, als die Theorie voraussagt. Beispiele für Suchanfragen in diesem Bereich sind "response time" (Antwortzeit), "open link in new window" (Link in neuem Fenster öffnen), "teenagers", "site maps", "eye tracking" und "link color" (Linkfarbe). Useit.com hat sich nicht besonders auf diese Themen spezialisiert, das ist auch ein Grund dafür, dass sie nicht am Anfang der Liste stehen. Doch zu jeder dieser Anfragen habe ich zumindest einen passenden Artikel.

Im Allgemeinen behandelt meine Website ein breites Spektrum von Themen in einiger Tiefe, und das ist wahrscheinlich der Grund für diese Ausbuchtung bei den mittleren Anfragen mit Extra-Traffic.

Wenn wir die Liste der Anfragenpopularität nach unten weiterverfolgen, werden die Anfragen länger und länger. Das folgende Diagramm zeigt die Anzahl der Wörter in der Anfrage für jede der ersten 19 Gruppen von jeweils 1000 Anfragen. (Das heisst: Die Anfragen Nr. 1-1000 waren die ersten, gefolgt von den Anfragen Nr. 1001-2000 und so weiter bis zu den Anfragen Nr. 18.001-19.000).

Anzahl der Wörter pro Anfrage

Anfragen mit einem einzelnen Wort waren unter den ersten tausend Anfragen (also denen, die den meisten Verkehr erzeugt haben), weit verbreitet, fielen weiter hinten aber rasch ab. Im Gegensatz dazu sind Anfragen mit vier oder fünf Wörtern unter den populärsten Anfragen selten, stellen aber einen grossen Anteil der Anfragen jenseits der ersten 7000.

Das zeigt, wie wichtig es ist, beim Suchmaschinenmarketing auf längere Anfragen zu achten: Anfragen mit mehreren Wörtern sind am besten geeignet, um das weite Feld der Nutzerinteressen abzudecken. In diesem Fall gehörten zu den langen Anfragen im Verkehrsbereich um 7000 z. B. "radio buttons and check boxes" (fünf Wörter) und "horizontal scrollbar in html" (waagerechte Scroll-Leiste in Html, vier Wörter).

In 10 Jahren fast keine Veränderung

Beim Vergleich der neuen Daten mit denen von vor zehn Jahren fällt am meisten auf, dass die Kurven fast gleich aussehen. Viele Messwerte des Webverkehrs folgten 1996 einer Zipf-Verteilung, und sie tun es heute immer noch.

Die beiden Ausnahmen haben mit Suchmaschinen zu tun:

  • Eine einzige Suchmaschine ist unverhältnismässig populär. Ist das ein vorübergehender Glücksfall oder eine fundamentale Veränderung in der Internet-Fabrik? Das werden wir in zehn Jahren überprüfen.
  • Die Nutzer geben heutzutage öfter lange Suchanfragen ein. (Diesen Trend diskutiere ich detailliert in meinem Kurs über die grundlegenden Richtlinien für Web-Usability).

Doch im Grossen und Ganzen bleiben die wichtigsten Muster des Internet-Gebrauchs bemerkenswert stabil. Das beruht auf dem gleichen Phänomen, das auch die langfristige Haltbarkeit von Usability-Richtlinien bestimmt. In beiden Fällen sind die Schlussfolgerungen unabhängig vom technischen Wandel oder von Modewellen. Vielmehr beruhen sie auf der grundlegenden Natur menschlichen Verhaltens.

Wenn Sie wissen, dass eine einzige Verteilung diese vielen Erscheinungsformen des Internet-Gebrauchs beschreibt, erleichtert Ihnen das die Analyse Ihrer eigenen Logfiles: Tragen Sie Ihre statistischen Daten über einer log-log-Skala ein [d.h. ein Koordinatensystem mit zwei logarithmischen Skalen] und sehen Sie nach, ob sie auf einer Geraden liegen. Wenn ja, dann folgt Ihre Website der Theorie. Wenn nein, dann sehen Sie nach, wo Sie abweichen: An der Spitze, in der Mitte oder am Ende? Oberhalb oder unterhalb der vorausgesagten Gerade? Jede Abweichung hilft Ihnen zu verstehen, in welcher Weise Ihr Verkehr von der Norm abweicht. Diese Einsichten können Ihnen auch Hinweise auf Wachstumspotenziale geben.

 

© Deutsche Version von Jakob Nielsens Alertbox. Institut für Software-Ergonomie und Usability AG. Alle Rechte vorbehalten.

Kommentare auf diesen Beitrag

    Keine Kommentare

Kommentar hinzufügen

Die mit * gekenzeichneten Felder sind zwingend auszufüllen