Schlagwort-Archive: Größe

SEO – technisch perfekte Seiten liefern

Laden Sie alle Beiträge zur Suchmaschinenoptimierung als PDF herunter

Für die Suchmaschinenoptimierung ist es wichtig, technisch einwandfreie Seiten auszuliefern. Dazu gehört auch, dass die Seiten schnell angeschaut werden können. Sind die Dateien etwa aufgeblasen oder für HTML eine Spur zu groß, so hat der Crawler guten Grund, die Auslesung abzubrechen.

Fehlerhafte Tags entstehen oft bei handgemachten Seiten: Fehlende Title, nicht geschlossene Tags bei Überschriften oder Absätzen, fehlende Meta Tags können von Browsern zwar korrekt dargestellt werden. Die Suchmaschinenoptimierung scheitert aber natürlich, denn wo kein Title oder eine identifizierbare Überschrift ist, da kann erst gar keine Bewertung vorgenommen werden. Die Seiten werden eher herabgestuft, weil hier offensichtlich jemand seine Hausaufgaben nicht gemacht hat.

Dabei muss man auch bedenken, dass der Crawler schließlich sehr viele Seiten in sehr Kurzer Zeit anschauen soll bzw. will. Er muss dabei z. B. auch HTML-Befehle und HTML-Kommentare ausfiltern.

Eine einzelne HTML-Seite sollte nicht größer als 200 Kilobyte sein. Besser sind 100 KB maximal. Anfällig hierfür sind vor allem ältere Seiten mit tabellenbasierten Designs, Seiten mit großem Anteil an Inline-CSS und ähnliche Sünden des Webdesign.

Bilder sollten für das Web optimiert sein mit einer Auflösung von 72 dpi und einer vernünftigen Kompression. Sie sollten nicht größer als 100 Kilobyte sein. Ist man der Ansicht, unbedingt größere Bilder in hoher Qualität anbieten zu müssen, so kann man Großansichten optional anbieten, indem man kleinere Versionen in der eigentlichen Website anbietet und erst beim Draufklicken mit dem Hinweis “Größeres Bild” das entsprechende größere Bild anbietet.

Ein Problem sind dynamische Seiten, die erst beim Besuch aus der Datenbank generiert werden. Bei entsprechendem Traffic kann das lange dauern, wir wissen aber alle, das kaum einer – auch keiner von uns – die Geduld hat, hierauf zu warten.

Zudem verfügt nicht jeder potentielle Besucher über einen Breitbandanschluß. Mobile Geräte z. B. haben öft größere Schwankungen. Möchte man Besucher aus anderen Ländern haben, verstärkt sich das Problem zusätzlich. Jenseits der westlichen Welt gibt es auch in Internet-Cafes nur sehr langsame Anschlüsse.

Die Lösung dynamische Seiten ist ein Cache, der bei entsprechenden CMS-Systemen existiert. Für WordPress gibt es eine eingebaute Cache-Funktion sowie ein Plugin.

Für nichtdynamische Webseiten hat man eventuell die Möglichkeit, die HTTP-Kompression des Servers zu aktivieren. Hierfür muss man allerdings Zugriff auf die Serverkonfiguration haben. Einige Browser scheinen zudem nicht in der Lage zu sein, serverseitig komprimierte Dateien zu entpacken.

Viele kleine Dateien wie etwa GIF-Bildchen auszuliefern beansprucht den Server stärker als die Auslieferung einer einzelnen großen Datei. Hier ließe sich überlegen, ob man etwa mit CSS und browserseitig erzeugten Grafiken wie Listensymbolen besser fährt.

Last not least sollte man die Cache-Funktion für Proxies nicht deaktivieren. Es kann immer mal passieren, dass der Server aus irgendeinem Grund down ist. Deswegen ist es von Vorteil, wenn die Provider eine Version aus dem Cache anbieten können, zumal das oft flotter ist als die aktuelle Version jeweils abzufragen.

Wie man dynamische Seiten mit MySQL optimiert, erfährt man hier. SELFhtml hält ebenfalls einen Text bereit.