Page Speed: Google möchte schnellere Webseiten…?

Mit Interesse habe ich den Beitrag im „Official Google Blog“ über den Wunsch Googles, dem Nutzer schnellere Webseiten zu bieten, gelesen. Im Beitrag „Let’s make the Web faster“ schreiben Urs Hoelzle und Bill Coughran über ihre Ideen, die Ladezeit von Webseiten zu reduzieren, um den „Surfer“ ein schnelleres „Surf-Erlebnis“ zu ermöglichen. Diesen Ansatz untermauern beide noch durch ein eigens dafür gedrehtes Video. Praktischerweise verweisen sie noch auf eine eigens für diese Anliegen produzierte Seite (http://code.google.com/intl/de-DE/speed/), von der unter anderem das mittlerweile recht bekannte Tool YSlow! sowie das neuere Google Page Speed (beides Plugins für die Firefox-Extension Firebug) und diverse weitere heruntergeladen werden können.

Das Tool Google Page Speed ist neu für mich, mit dem Tool YSlow habe ich ja bereits einige Erfahrungen sammeln können. In einem ersten Test zeigte Google Page Speed (ich habe die Version 1.0.1.1 Beta genutzt) auch einige Empfehlungen, die ich von YSlow! nicht bzw. nicht in dieser Form erhalten habe, darunter:

  • Detailliertere Empfehlungen zur Kompression von Bildern,
  • die Empfehlung unterschiedliche Hostnamen zur Beschleunigung des gleichzeitigen Ladens externer Ressourcen,
  • die Empfehlung, bestimmte Elemente (Bilder, CSS) von „Cookie-losen“ Domains zu laden,
  • detailliertere Empfehlungen zur Beschleunigung von CSS-Stylesheets,
  • detailliertere Empfehlungen zur „richtigen Lade-Reihenfolge“ externer Dateien.

Spannend fand ich an den Ergebnissen, dass offensichtlich auch die JavaScripts der „hauseigenen“ Dienste Google-Maps und Google Analytics, die wir bspw. für die Satelliten-Geo-Suche auf www.location-bretagne.de nutzen, noch optimierungsbedürftig sind (siehe Abbildung)… 😉 Also, Google, ran! Ich möchte bei Euren eigenen Diensten einen Optimierungsgrad von 100% sehen.

Google Page Speed Ergebnisse einer Seite mit Google Maps

Share

Duplicate Content: Google hat ein sehr langes Gedächnis…

Im November 2008 habe ich einige Modifikationen an bestimmten URLs der Webseite www.location-bretagne.de vorgenommen. Ausserdem war mir aufgefallen, dass wir einige hundert URLs hatten, die in verschiedener Schreibweise zum gleichen Inhalt führten. Auch wenn Duplicate Content auf der selben Website (zumindest bei Google) als Problem nicht allzu sehr überschätzt werden sollte (Demystifying the „duplicate content“ penalty), ist es doch nicht besonders schön.

Also habe ich mir die Mühe gemacht, alle nicht gewünschten URL via 301-Redirect auf die entsprechende bevorzugte Stamm-URL zu leiten, wie es Google in seiner Webmaster-Hilfe vorschlägt.

Richtig spannend finde ich nun die folgende Beobachtung: Mittlerweile haben wir es Ende Mai 2009 (also knapp 7 Monate später). Google kenn aber immer noch viele der alten URLs, die es vor November 2008 aufgeschnappt haben muss, denn im November habe ich sowohl sämtliche internen Links entfernt als auch wie eben beschrieben die 301-Redirects eingerichtet. Wir haben heute den 22.05.2009 und Google ruft immer noch hunderte dieser „uralten“ URLs auf…

Dieses „Elefanten-Gedächnis“ habe ich weder bei Yahoo! noch bei MSN Live Search beobachten können (dort war nach ca. 1-2 Monaten Schluss mit dem Aufrufen nicht mehr vorhandener URLs).

Google scheint also über zuviele Speicher- und CPU-Ressourcen zu verfügen, denn ansonsten würden sie wohl etwas ‚ökonomischer‘ damit umgehen…. : )

Share