User Experience
02.05.2019, 22:23 Uhr
Technical SEO: An die Spitze dank UX
Seitenbetreiber, die ihren Content im Griff haben, aber doch nicht im Ranking bei Google dominieren, sollten sich an die Feinarbeit machen. Technical SEO ist hier ein Weg.
Gerade beim Ladevorgang grösserer Bilder sorgt HTTP/1.1 für Verzögerungen beim Seitenaufbau. HTTP/2 ist hier in den meisten Fällen die bessere Option.
(Quelle: shutterstock.com/Givaga)
Slogans wie "Content is King" und "Mobile First" sind für die Seitenbetreiber zur Devise für den Standard ihres Webauftritts geworden. Wer hier seine Hausaufgaben gemacht hat, setzt sich bei der organischen Suche auf Google durch.
Bleibt ein gutes Ranking bei relevanten Keywords jedoch aus, weil die Konkurrenz ebenfalls ihre To-dos erledigt hat, kommt die technische Optimierung der Webseite ins Spiel. Obwohl Google die Zusammenhänge zwischen einzelnen Faktoren und der Platzierung im organischen Ranking bestreitet, scheint die Realität doch eine andere zu sein.
UX beeinflusst Google-Ranking
Aktuelle Statistiken von Searchmetrics zeigen, dass Webseiten, die hinsichtlich ihrer User Experience (UX) optimiert wurden, bei der Google-Suche ein besseres Ranking erzielen als andere.
Die Suchmaschine kann zwar nicht feststellen, ob eine Seite kürzere Ladezeiten oder eine bessere Usability hat, Google registriert aber sehr wohl das Nutzerverhalten um ein Suchergebnis. Dieses scheint die Platzierung einer URL auf den Search Engine Result Pages (SERP), also den Suchergebnisseiten, zu beeinflussen. Denn eine schwache UX führt für gewöhnlich zur Rückkehr zu der vorausgegangenen Suchanfrage oder dem Abbruch des Ladevorgangs einer Webseite, selbst wenn das Angebot noch nicht zu sehen war.
Diese "Bounce-back-to-SERP-Rate", also das Verhältnis von Klicks auf ein Suchergebnis und den Rückkehrern zur Suchanfrage, liegt dem Internetriesen am Herzen. Bekanntlich steht für Google das Nutzererlebnis im Vordergrund und das ist, so die Annahme, umso schlechter, je höher die Absprungrate einer Seite ist.
Ich sehe was, das stimmt mich ruhig
Ganz ohne Zeitverzug nach dem Aufruf einer Seite wird es nicht gehen, doch lassen sich technische Features optimieren, die in diese Richtung gehen. Seitenbetreiber sollten sich hier auf "Time to First Paint" konzentrieren, um ihre Ladezeiten zu bewerten.
Speziell geht es um die Zeit, bis ein Nutzer überhaupt einen Content auf der Webseite zu sehen bekommt, auch wenn noch nicht alle Inhalte geladen wurden. Diese "Time to First Meaningful Paint" nehmen User bewusst wahr und springen ab, wenn es ihnen zu lange dauert. Doch den ungeduldigen Nutzer beschwichtigt oft schon eine Andeutung von Inhalt. Womit die "Time to First Contentful Paint" ebenfalls nicht zu vernachlässigen ist.
Hilfreich ist hier auch eine Protokolloptimierung, die von den meisten Serverbetreibern mit einem Knopfdruck vorgenommen werden kann. Obwohl selbst Google noch immer mit HTTP/1.1 arbeitet, interagieren Server und Webbrowser per HTTP/2 effektiver.
Daher lassen sich grössere Datenmengen, wie beispielsweise bei seitenfüllenden Bildformaten, schneller auf den Bildschirm des Users transportieren. Die Zeit, bis auf der Webseite etwas passiert, wird also weiter verkürzt.
Doch nicht nur bei der Optimierung und Komprimierung von Daten, die dem User präsentiert werden, können Internetseiten punkten. Die Überarbeitung der Skripte einer Webpräsenz wirkt ebenfalls beschleunigend.
Neben "Minified CSS" sollte auch "Minified JavaScript" zu den To-dos von Seitenbetreibern, die in der Spitze optimieren wollen, hinzugefügt werden.
"Technik ist die Grundlage, um Inhalte zu indexieren"
Malte Landwehr ist als Vice President Product verantwortlich für die Searchmetrics-Produkte und leitet die Bereiche Product Management und Product Marketing. Für uns erklärte er, war Technical SEO noch immer für Unterschiede bei der Seitenoptimierung bedeutet.
Wo kommt die Annahme her: Technisches SEO ist tot?
Malte Landwehr: Im Moment sagen alle Content is King, Context is Queen, Google hat überall AI drin und versteht alles. Alles wird Voice Search, alles wird Mobile. Es kommt also nur darauf an, die besten Inhalte zu haben, so zumindest der recht verbreitete Tenor. Dabei wird jedoch oft vergessen, dass A: Technik immer noch die Grundlage ist, um die Inhalte überhaupt erstmal effizient und regelmässig indexieren zu können. Und B: In Branchen, in denen alle den gleichen Content haben, wo beispielsweise jeder Reiseanbieter die gleichen Hotels mit den gleichen Beschreibungen listet, Google ja irgendwie entscheiden muss, wer beim Ranking gewinnt. Da ist dann die User Experience ganz wichtig, die allerdings nicht direkt gemessen werden kann.
Malte Landwehr: Im Moment sagen alle Content is King, Context is Queen, Google hat überall AI drin und versteht alles. Alles wird Voice Search, alles wird Mobile. Es kommt also nur darauf an, die besten Inhalte zu haben, so zumindest der recht verbreitete Tenor. Dabei wird jedoch oft vergessen, dass A: Technik immer noch die Grundlage ist, um die Inhalte überhaupt erstmal effizient und regelmässig indexieren zu können. Und B: In Branchen, in denen alle den gleichen Content haben, wo beispielsweise jeder Reiseanbieter die gleichen Hotels mit den gleichen Beschreibungen listet, Google ja irgendwie entscheiden muss, wer beim Ranking gewinnt. Da ist dann die User Experience ganz wichtig, die allerdings nicht direkt gemessen werden kann.
Es gibt jedoch Approximationen wie Bounce-back-to-SERP-Rate, Ladezeit oder Time-to-First-Interactive. Ich bin mir ganz sicher, dass Google diese Werte benutzt, um Usability und User Experience zu messen. Google Lighthouse prüft ja auch, ob bei einer Touch-Navigation ausreichend Abstand zwischen den Buttons ist und ob jeder Link einen Link-Text hat, damit auch ein blinder Mensch mit Screen-Reader die Seite verstehen kann. Das sind alles Sachen, für die, wenn sie fehlen, das Audit bei Google fehlschlägt, womit eine schlechte Usability vorliegt.
Wie genau erhebt Searchmetrics Daten, die eben genau die Zusammenhänge zwischen Optimierung und Ranking aufzeigen?
Landwehr: Wir kombinieren hier Google Lighthouse und unsere Rankingdaten. Die Lighthouse-Daten kann man tatsächlich allein im Browser ausführen und ein Audit für eine bestimmte URL erstellen. Wir definieren einen Markt über ungefähr 1.000 Suchbegriffe. Für diese holen wir die Top 20 Ergebnisse von Google. Dann gehen wir los und erstellen für jede einzelne URL ein Lighthouse-Audit. Diese Daten aggregieren wir dann so, dass echte Market Insights entstehen. Für das, was bei den Audits heraus kommt ist Google verantwortlich, die Ranking-Daten kommen aus unserer Research Cloud. Unser Bread-and-Butter-Geschäft ist die Ermittlung von Ranking-Daten und wir beschäftigen uns schon lange damit, wie man repräsentative Keyword-Sets auswählt, um Vergleichswerte zu erstellen.
Technische respektive UX-Optimierung hat offiziell keine Auswirkung auf das Ranking bei Google, zeigt aber gewisse Korrelationen. Wo lassen sich diese erkennen?
Landwehr: Bei mehreren mir bekannten E-Commerce-Seiten, die hinsichtlich verschiedener Faktoren technisch optimiert haben, sind Usability und Ranking sichtbar besser geworden. Dabei lassen sich natürlich nur Korrelationen feststellen und es ist schwer hier tatsächliche Kausalitäten festzuhalten. Dabei zu sagen, welcher einzelne Faktor den grössten Einfluss hat, ist fast unmöglich. Teilweise wirken diese auch indirekt. In dem Moment, wo eine Webseite schneller lädt, sinkt auch die Absprungrate. Google bekommt aber nur mit, dass weniger User das Laden der Seite abbrechen. Dass die Seite schneller ist, weiss Google gar nicht.
Aber die Absprungrate schliesst Google doch in das Ranking gar nicht ein, oder etwa doch?
Landwehr: Google behauptet immer, dass die Absprungrate beim Ranking nicht mit einbezogen wird. Aber mal ganz logisch: Jemand klickt auf Platz 1 auf der Google-Ergebnisseite und kommt zurück, klickt dann auf Platz 2 und kommt nicht zurück. Dann rankt Google die beiden Ergebnisse andersherum, die Leute klicken auf Platz 1 und kommen nicht zurück. Google kann davon ausgehen, dass die User, die nicht zurückkehren, um das gleiche noch einmal zu suchen, zufrieden mit dem Ergebnis sind. Google streitet ab, dass sie das machen. Allerdings gibt es eine Reihe von Experimenten, die nahe legen, dass das Klickverhalten Einfluss auf das Ranking hat.
Neben diesem Beispiel, welche technischen Features wirken sich nach Ihrer Analyse am stärksten auf die Google-Platzierung aus?
Landwehr: Es ist immer schwierig, die Faktoren nebeneinander zu gewichten. Ich persönlich finde, dass Time-to-First-Meaningful-Paint hier am sinnvollsten ist und im nächsten Schritt Time-to-First-Interactive. Das sind die Faktoren, bei denen ich als User auch einen Unterschied bemerke. Das Gute ist, dass Google diese Faktoren im Detail erklärt, somit erfährt jeder, was genau damit gemeint ist und wie Google das für sich definiert.
Auch HTTP/2 soll sich positiv auf die User Experience auswirken. Wie genau macht sich diese Optimierung bemerkbar?
Landwehr: HTTP/2 ist tatsächlich nur das darunter liegende Protokoll, auf dem alles basiert, was an Daten gesendet wird. Das ist eine reine Konfiguration am Server, die festlegt, wie die Webseite mit dem jeweiligen Browser kommuniziert. Für User lädt eine Seite über HTTP/2 allerdings in vielen Fällen schneller als über HTTP/1.1.
Nun strömen auf Seitenbetreiber unendlich viele Möglichkeiten ein, ihre Webseite zu verbessern. Was wäre Ihr konkreter Tipp?
Landwehr: Ich würde zuerst einmal meine Strategie hinterfragen. Bin ich im richtigen Markt, habe ich Wettbewerber mit denen ich konkurrieren kann? Dann sollte ich sicherstellen, dass die Basics gegeben sind, was die Optimierung der Inhalte angeht. Erst dann würde ich mich an Ladezeitenoptimierung und ähnliche technische Faktoren machen. Denn wenn ich Schrott-Content habe, bringt es mir nichts, wenn die Webseite schnell ist.
Wie genau erhebt Searchmetrics Daten, die eben genau die Zusammenhänge zwischen Optimierung und Ranking aufzeigen?
Landwehr: Wir kombinieren hier Google Lighthouse und unsere Rankingdaten. Die Lighthouse-Daten kann man tatsächlich allein im Browser ausführen und ein Audit für eine bestimmte URL erstellen. Wir definieren einen Markt über ungefähr 1.000 Suchbegriffe. Für diese holen wir die Top 20 Ergebnisse von Google. Dann gehen wir los und erstellen für jede einzelne URL ein Lighthouse-Audit. Diese Daten aggregieren wir dann so, dass echte Market Insights entstehen. Für das, was bei den Audits heraus kommt ist Google verantwortlich, die Ranking-Daten kommen aus unserer Research Cloud. Unser Bread-and-Butter-Geschäft ist die Ermittlung von Ranking-Daten und wir beschäftigen uns schon lange damit, wie man repräsentative Keyword-Sets auswählt, um Vergleichswerte zu erstellen.
Technische respektive UX-Optimierung hat offiziell keine Auswirkung auf das Ranking bei Google, zeigt aber gewisse Korrelationen. Wo lassen sich diese erkennen?
Landwehr: Bei mehreren mir bekannten E-Commerce-Seiten, die hinsichtlich verschiedener Faktoren technisch optimiert haben, sind Usability und Ranking sichtbar besser geworden. Dabei lassen sich natürlich nur Korrelationen feststellen und es ist schwer hier tatsächliche Kausalitäten festzuhalten. Dabei zu sagen, welcher einzelne Faktor den grössten Einfluss hat, ist fast unmöglich. Teilweise wirken diese auch indirekt. In dem Moment, wo eine Webseite schneller lädt, sinkt auch die Absprungrate. Google bekommt aber nur mit, dass weniger User das Laden der Seite abbrechen. Dass die Seite schneller ist, weiss Google gar nicht.
Aber die Absprungrate schliesst Google doch in das Ranking gar nicht ein, oder etwa doch?
Landwehr: Google behauptet immer, dass die Absprungrate beim Ranking nicht mit einbezogen wird. Aber mal ganz logisch: Jemand klickt auf Platz 1 auf der Google-Ergebnisseite und kommt zurück, klickt dann auf Platz 2 und kommt nicht zurück. Dann rankt Google die beiden Ergebnisse andersherum, die Leute klicken auf Platz 1 und kommen nicht zurück. Google kann davon ausgehen, dass die User, die nicht zurückkehren, um das gleiche noch einmal zu suchen, zufrieden mit dem Ergebnis sind. Google streitet ab, dass sie das machen. Allerdings gibt es eine Reihe von Experimenten, die nahe legen, dass das Klickverhalten Einfluss auf das Ranking hat.
Neben diesem Beispiel, welche technischen Features wirken sich nach Ihrer Analyse am stärksten auf die Google-Platzierung aus?
Landwehr: Es ist immer schwierig, die Faktoren nebeneinander zu gewichten. Ich persönlich finde, dass Time-to-First-Meaningful-Paint hier am sinnvollsten ist und im nächsten Schritt Time-to-First-Interactive. Das sind die Faktoren, bei denen ich als User auch einen Unterschied bemerke. Das Gute ist, dass Google diese Faktoren im Detail erklärt, somit erfährt jeder, was genau damit gemeint ist und wie Google das für sich definiert.
Auch HTTP/2 soll sich positiv auf die User Experience auswirken. Wie genau macht sich diese Optimierung bemerkbar?
Landwehr: HTTP/2 ist tatsächlich nur das darunter liegende Protokoll, auf dem alles basiert, was an Daten gesendet wird. Das ist eine reine Konfiguration am Server, die festlegt, wie die Webseite mit dem jeweiligen Browser kommuniziert. Für User lädt eine Seite über HTTP/2 allerdings in vielen Fällen schneller als über HTTP/1.1.
Nun strömen auf Seitenbetreiber unendlich viele Möglichkeiten ein, ihre Webseite zu verbessern. Was wäre Ihr konkreter Tipp?
Landwehr: Ich würde zuerst einmal meine Strategie hinterfragen. Bin ich im richtigen Markt, habe ich Wettbewerber mit denen ich konkurrieren kann? Dann sollte ich sicherstellen, dass die Basics gegeben sind, was die Optimierung der Inhalte angeht. Erst dann würde ich mich an Ladezeitenoptimierung und ähnliche technische Faktoren machen. Denn wenn ich Schrott-Content habe, bringt es mir nichts, wenn die Webseite schnell ist.
Google Lighthouse erstellt ja zu jeder URL einen Performance-Score, in den alle Performance-Ladezeiten einfliessen. Am Beispiel der Domain tripadvisor.de sieht man, dass wenn sie auf Position 1 bis 5 rankt, sie einen Performance-Score von 30 hat, rankt sie weiter hinten, hat sie einen schlechteren Score. Meiner Meinung nach liegt das daran, dass es hier zu viele etablierte Player und Konkurrenten gibt, die guten Content und eine hohe Popularität haben. UX ist im Reisesektor also wirklich ausschlaggebend.
Wenn man hingegen in einem Bereich unterwegs ist, wo die Hälfte der Konkurrenten noch mit schlechtem Content arbeitet, kann man auch mit einer langsamen Webseite und guten Inhalten gewinnen. Da lohnt es sich auch, die Marke zu stärken und über soziale Medien zu etablieren, um eine eigene Popularität herzustellen oder zu stärken.