Partner von
Partner von

Ladezeiten

Websites, die sich langsam aufbauen, nerven. Wieso sind Ladezeiten heute überhaupt noch ein Problem?





• Angenommen, dieser Text wäre eine Website. Wenn diese Website in dem Moment, in dem Sie bis zu dieser Stelle gelesen haben, noch nicht geladen wäre, wären Sie bereits leicht verstimmt. Jetzt, also ein paar Sekundenbruchteile später, würden Sie bereits davon ausgehen, dass mit der Seite oder Ihrer Verbindung etwas nicht stimmt. Würden das WLAN-Symbol Ihres Rechners prüfen oder nachsehen, ob Ihr Smartphone vielleicht nur im EDGE-Netzwerk statt via LTE Daten überträgt. Und spätestens dann würden Sie – je nach Naturell – Ihre Aufmerksamkeit zwischendurch etwas anderem zuwenden oder das Laden der Seite abbrechen und Ihr Glück anderswo versuchen.

Es gibt etliche Untersuchungen, die belegen, wie groß die Ungeduld der Internetnutzer ist. Ein ehemaliger Amazon-Mitarbeiter sagt, dass bei Tests pro 100 Millisekunden längerer Ladezeit der Umsatz um ein Prozent gesunken sei. Als Google 2006 in einem Experiment 30 statt 10 Suchergebnisse auf einmal anzeigte, sprang ein Fünftel der Nutzer ab – die Ladezeit der Ergebnisseite hatte sich um 500 Millisekunden erhöht. Ein Lidschlag dauert zwischen 300 und 400 Millisekunden.

Aufgebläht und neugierig

Wenn auch die Zahlen variieren: Große und kleine Online-Unternehmen weisen seit Jahren auf Zusammenhänge zwischen langsamen Ladezeiten und unzufriedenen Nutzern hin. Nur: Wieso ist Internet im Schneckentempo heute überhaupt noch ein Thema? Verglichen mit den pfeifenden 56-K-Modems, mit denen man sich Ende der Neunzigerjahre einwählte, liefert selbst eine moderate 6-MBit-DSL-Leitung mittlerweile die hundertfache Bandbreite. Bei den mobilen Daten waren die Zuwächse in der vergangenen Dekade sogar noch größer. Auch die Rechenleistung der Computer und Telefone hat massiv zugenommen.

Ein Grund dafür, dass trotz Hochgeschwindigkeitstechnik das Warten kein Ende hat: übergewichtige Websites. Die durchschnittliche Seite ist inzwischen rund drei Megabyte groß – und damit deutlich voluminöser als die Urversion des Computerspiels „Doom“, das immerhin über 3-D-Grafik, zahlreiche Level und Soundeffekte verfügt. Noch 2010 kam die durchschnittliche Website auf gerade mal 700 Kilobyte, also weniger als ein Viertel des heutigen Werts.

„Websites von heute sind mit denen von vor zehn oder 15 Jahren kaum noch vergleichbar“, sagt Sebastian Cohnen, CTO der Kölner Firma Stormforger, die Kunden bei der Performance ihrer Homepages oder Apps berät. „Früher war eine Website ein statisches HTML-Dokument, vielleicht mit einem Bild. Heute gibt es Kommentarfunktionen, Chats, eingebundene Videos und unzählige andere Zusatzfunktionen“, sagt Cohnen. Auch animierte Werbung und das sogenannte Tracking (siehe „Die heimlichen Verfolger“, brand eins 02/2013) blähen viele Seiten auf. Auf vielen finden sich 20 oder mehr solcher Tracker.

Als Googles Werbenetzwerk Doubleclick am 14. März dieses Jahres für mehrere Stunden ausfiel, bedeutete das nicht nur, dass auf den betroffenen Seiten keine Werbung ausgespielt werden konnte: Viele Seiten konnten gar nicht mehr oder nur stark verzögert geladen werden, weil die Doubleclick-Anzeige „klemmte“. Je mehr Drittanbieter in eine Seite eingebunden sind, umso länger sind nicht nur die Ladezeiten, desto größer ist auch das Risiko, dass eine der vielen Quellen für Verzögerungen sorgt.

Ein weiterer Grund für die Geduldsproben im Netz: Während die Bandbreite sich enorm erhöht hat, ist die sogenannte Latenz mobiler Anwendungen kaum geringer geworden. Mit Latenz bezeichnet man das Zeitintervall, mit dem eine einzelne Anfrage zwischen dem Gerät des Nutzers und dem Server der Website verzögert wird. „Nichtoptimierte Websites bestehen oft aus Dutzenden von einzelnen Bauteilen: Bildern, Javascript-Elementen, Tracker und so weiter“, erklärt Cohnen. „Und jede dieser Einzelanfragen braucht Zeit, die sich im Mobilfunk leider nicht beliebig reduzieren lässt und die sich deshalb zu merkbaren Wartezeiten addieren.“ Er empfiehlt daher unter anderem, die Zahl der Elemente zu reduzieren.

Langsame Websites strapazieren nicht nur die Nerven der Nutzer, sondern werden auch von so gut wie allen Suchmaschinen bestraft. Bei gleichwertigem Inhalt wird eine schnelle Seite weiter oben in der Ergebnisliste angezeigt als die langsame Konkurrenz – was sich immens auf die Besucherzahlen auswirken kann. Und auch hier setzt sich der mobile Standard durch: Google wird von Juli 2018 an die mobile Ladezeit als eine Bemessungsgrundlage für das Ranking von allen Websites heranziehen – egal, ob die Suche mobil stattfindet oder nicht.

Schneller – und indiskreter

Das derzeit wohl größte Projekt, das den langen Ladezeiten den Kampf angesagt hat, stammt ebenfalls von dem Internet-Konzern: Accelerated Mobile Pages (AMP), also beschleunigte mobile Seiten. Das Prinzip: Ein reduziertes HTML-Korsett und stark abgespeckte Javascript-Befehle sorgen dank Googles leistungsstarken Servern dafür, dass Websites auf Mobilgeräten erheblich schneller laden als zuvor. „Auf das meiste, was Google AMP aus Geschwindigkeitsgründen verbietet – also zum Beispiel aufwendige Animationen, interaktive Skripte und so weiter – kann man auch freiwillig verzichten, wenn man eine Website baut“, sagt Sebastian Cohnen. „Das ist kein Hexenwerk, sondern eher eine Mischung aus Vernunft und Best Practices.“

Andere sehen das Projekt deutlich kritischer: Sie stören sich unter anderem daran, dass ein Benutzer von der Google-Ergebnisseite gar nicht mehr auf die gesuchte Website, sondern direkt auf eine bei Google gespiegelte Version geleitet wird. „Google AMP ist ein Fortschritt, der uns zurückwirft“, schreibt beispielsweise Daniel Miessler, Experte für Computersicherheit. „Google AMP ist schlecht – und hat das Potenzial, das Netz zu zerstören“, pflichtet ihm der Programmierer und Autor Scott Gilbertson bei. „Google AMP schadet dem Netz, es schadet den Produzenten von hochwertigen Inhalten und ihren Nutzern. Es gibt nur einen, für den Google AMP gut ist: Google.“ Andere bemängeln, dass Google jene Seiten, die AMP verwenden, bei der Suche bevorzuge und somit seine Marktmacht missbrauche, um die Technik in den Markt zu drücken.

In dem Konzern sieht das man naturgemäß anders: „Ein Großteil der Nutzung hat sich inzwischen auf den Mobilbereich verlagert“ sagt Malte Ubl, bei Google für das AMP-Projekt zuständig. „Aber nicht alle Seiten sind für die mobile Nutzung optimiert. Dazu kommt, dass Apps Inhalte oft viel schneller bereitstellen können, sich Websites im Vergleich also noch einmal langsamer anfühlen.“ Und tatsächlich kann eine App beispielsweise von Amazon oder Zalando – die bei der Installation jeweils mehr als hundert Megabyte auf dem Smartphone speichert – Inhalte später schneller abrufen als ein gewöhnlicher Webbrowser. Google AMP ist also auch der Versuch, nicht allzu sehr ins Hintertreffen gegenüber modernen Apps zu geraten.

„Wir wollen eine Technologie bereitstellen, die es einfach macht, Websites mobil zu optimieren“, sagt Ubl. „Das erreichen wir unter anderem dadurch, dass wir die Zahl von Anfragen auf ein Minimum reduzieren, im Idealfall auf eine oder zwei.“ Außerdem laden die AMP-Versionen von Websites stets zuerst die Inhalte und erst dann Werbung und Analytics. Das ist nutzerfreundlich – manchem Seitenbetreiber wäre es lieber, zuerst die Reklame anzuzeigen, da die das Geld bringt.

Ein Nachteil der neuen Technik aus Sicht der Nutzer: Wegen der reduzierten Gestaltungsmöglichkeiten sehen AMP-Seiten oft ähnlich aus – egal ob es sich um ein seriöses Medium handelt oder um eine Fake-News-Fabrik aus Mazedonien. Dabei ist es heute wichtiger denn je, dass Absender klar erkennbar sind. Bei Google AMP verschwinden diese sogar in der URL: Wer die AMP-Version einer Seite aufruft, sieht in seiner Browserzeile „google.de/amp/…“. So sind Artikel eines russischen Propaganda-Kanals optisch kaum noch von denen eines seriösen Mediums zu unterscheiden.

Facebook hat mit Instant Articles eine ähnliche Initiative gestartet: schnellere Ladezeiten dank einheitlicher Gestaltung. Statt sich auf die jeweilige Website zu begeben, lesen die Leute Artikel gleich auf Facebook. Diesem Konzern geht es ebenso wie Google darum, die Nutzer möglichst auf der eigenen Plattform zu halten – ein Widerspruch zur Idee eines offenen Internets. Nebenbei schwächen die Giganten kleinere Medienmarken. Letztlich soll es egal sein, ob eine Nachricht aus Quelle A oder Quelle B stammt – Hauptsache, man bekommt sie durch Google oder bei Facebook. So hört man immer häufiger: „Aber in einem Artikel bei Facebook stand, dass …“

Google macht Dampf und wird noch mächtiger

Googe will immerhin die gleichmacherischen Internetadressen wieder abschaffen: „Wir finden die derzeitige Lösung auch nicht ideal“, sagt Malte Ubl. AMP-Seiten werden bereits im Hintergrund geladen, noch bevor der Nutzer auf den Link in der Liste der Suchergebnisse geklickt hat. Tut er das schließlich, öffnet sich die vorgeladene Seite nahezu sofort. Damit dieses sogenannte Prerendering möglich ist, brauchte die jeweilige Seite bislang eine Google-Adresse. Doch Ubl kündigt an: „Dies wird sich ab Juli 2018 ändern. Dann wird in der Browserzeile auch bei AMP-Seiten die korrekte URL der Website angezeigt.“

Was sich nicht ändern wird: Google kann dank der AMP-Seiten noch besser sehen, wer sich wie im Netz bewegt, wie lange auf welchen Seiten verweilt und welchen Links folgt. Weder Nutzer noch Anbieter scheint das allerdings sehr zu stören: 5,7 Milliarden Websites auf 31 Millionen verschiedenen Domains nutzen bereits die Technik – und jede Woche kommen 55 Millionen neue Seiten dazu.

Das geht ganz schön schnell. ---