Google Leak enthüllt 14’000 Ranking-Faktoren
Onpage SEO Manager
Neustadt Gruppe AG
Inhalt
- Ranking von Klicks mittels Navboost
- Domain Authority und Page Authority
- Bewertung von Backlinks
- Einheitlicher Content (siteFocusScore)
- Datenbasis des Chrome-Browsers
- Bewertung von YMYL-Inhalten
- Autoren-Expertise
- Keyword Stuffing
- Position des Contents
- Content Freshness
- Unser Fazit
- Disclaimer
- Unverbindliche Beratung
- Quellen
Ranking von Klicks mittels Navboost
Das Navboost-Ranking-System ist schon eins der ältesten und hat laut dem geleakten Dokument nicht an Relevanz verloren. Das System bewertet Pages anhand von Klicks und legt für die Unterscheidung von “bad clicks” und “good clicks” folgende Metriken fest:
- Anzahl der Suchanfragen für ein Keyword (Identifikation von Trends)
- Anzahl der Klicks auf das Suchergebnis
- “long clicks”, also wie lange jemand auf der Website verblieben ist
- “short clicks”, die Absprungrate oder auch Bounce Rate
- “search engagement”: Beispielsweise sucht jemand nach Christian Schwotzer und wird auf einer dritten Website fündig, seine Suchintention ist damit nicht erfüllt, da er auf die Website neustadt.swiss möchte.
Domain Authority und Page Authority
Einst verneint, benutzt Google nun doch eine Domain Authority. Oder zumindest eine Art davon. Wahrscheinlicher ist jedoch, dass Google – gerade unter der Berücksichtigung der Relevanz von Navboost – eher die Metrik “Page Authority” benutzt. Ein guter Artikel kann daher teilweise besser bewertet werden als die gesamte Domain. Natürlich kommt das auch der gesamten Domain zugute, aber nicht in dem Ausmass wie bisher angenommen.
Bewertung von Backlinks
Wenn es um Page Authority geht, ist man sehr schnell beim Thema Backlinks. Wie werden Backlinks also bewertet:
- Zu stark optimierte Ankertexte fallen negativ auf
- Lange Ankertexte mit grösserer Font werden besser bewertet
Einheitlicher Content (siteFocusScore)
Mit dem Focus Score kann bestimmt werden, mit welcher Konsistenz die Website mit Inhalten befüllt wird. Betreibt man beispielsweise eine Website über die Aerodynamik von Flugzeugen, kann man schlecht über Kochrezepte oder Schminktipps schreiben. Auch das sollte eigentlich nichts Neues sein, dennoch wissen wir es nun genauer.
Datenbasis des Chrome-Browsers
Ebenfalls ist aufgefallen, dass Daten aus Chrome erhoben werden, um das Nutzerverhalten besser zu verstehen. Dies spielt auch dem Navboost in die Hände, um ein übergreifendes Verständnis zu erhalten.
Bewertung von YMYL-Inhalten
Es ist bekannt, dass YMYL- (Your Money Your Life) Inhalte ein besonderes Auge von Google bekommen. Es hat sich nun herausgestellt, dass diese Inhalte einen ganz eigenen Ranking-Algorithmus haben als andere Inhalte. Wie dieser funktioniert, ist nicht bekannt.
Autoren-Expertise
Auch wenn nicht genau bekannt ist, wie YMYL-Inhalte bewertet werden, sollte dennoch klar sein, dass die Artikel von vertrauenswürdigen Experten geschrieben worden sind. Daher gibt es scheinbar ein Feature, mit dem relevante Informationen von verschiedenen Quellen zum Autor herangezogen werden, um diesen zu bewerten. Es lohnt sich also, ein Autorenverzeichnis zu erstellen und den Autor bei den jeweiligen Artikeln zu nennen, um dem Artikel die notwendige Autorität zu verleihen.
Keyword Stuffing
Dass Google Keyword Stuffing abstraft, ist seit vielen Jahren bekannt. Vieles spricht jetzt dafür, dass es einen Score gibt, der eine gewisse Dichte an Keywords “erlaubt”. In welcher Höhe der Prozentsatz liegt, ist nicht bekannt.
Position des Contents
Dass die Aufmerksamkeitsspanne der Menschen abgenommen hat, ist seit dem Aufkommen von Social Media wohl bekannt. Daher ist es bei den Websites umso wichtiger, in den Artikeln möglichst früh auf den Punkt zu kommen. Seit dem Core Update vom März 2024 gibt es bereits Mythen, dass nur die ersten 1000 Wörter des Artikels von Google eingelesen werden. Teilweise spricht man sogar von den ersten 1000 Zeichen. Welcher Aussage man nun Glauben schenken darf, bleibt weiterhin unbeantwortet.
Content Freshness
Aktueller Content ist wichtig, wer will sich schon mit veraltetem Wissen auseinandersetzen. Bis vor Kurzem ist man davon ausgegangen, dass jede Änderung auf jeder Page mit der letzten Indexierung gespeichert wird. Nun ist klar, dass nur die letzten 20 Änderungen gespeichert werden. Gemessen werden die Änderungen an:
- Veröffentlichungsdatum (bylineDate)
- Änderungen in der URL (syntacticDate)
- Änderungen des Onpage Contents (semanticDate)
Was heisst das für uns?
Backlinks und konkrete Nennungen sind immer noch ein starker Ranking-Faktor. Die Autorität der linkenden Page ist dabei wahrscheinlich wichtiger als die der Domain.
Content soll exakt auf die Suchintention ausgerichtet werden und schnell auf den Punkt kommen.
Regelmässig neuen Content hochladen oder überarbeiten.
Keine Off-Topic-Artikel veröffentlichen, das schadet dem Focus Score.
Relevante Informationen früh erkennbar machen.
Autoren nennen und ein Autorenverzeichnis erstellen.
Unser Fazit
Letzten Endes verändert sich in unserer SEO-Strategie für unsere Kundinnen und Kunden nicht viel. Die Suchmaschine möchte, dass die User das beste Sucherlebnis erhalten und schnell darauf treffen, was sie gesucht haben. Daher ist es am nachhaltigsten, wenn die User im Fokus stehen und die Inhalte nicht primär auf Suchmaschinen ausgerichtet sind, sondern auf die User. Gerade mit dem rasanten Fortschreiten der Technik (insbesondere AI), wird die Maschine immer besser darin, sich selbst die Userbrille aufzusetzen und nicht wie eine Maschine zu lesen, sondern eben wie ein echter Mensch. Wer also heute bezüglich SEO noch nicht auf diesen White-Hat-Ansatz gesetzt hat, wird sich und seine Kundinnen und Kunden früher oder später mit massiven Einbussen in Sichtbarkeit im digitalen Raum wiederfinden.
Mit dem Hintergrund, dass die Daten noch relativ frisch sind und noch nicht weitestgehend geprüft wurden und man zusätzlich nicht weiss, ob die Algorithmen aufgrund des Leaks schon wieder anders angepasst wurden, ist die ganze Situation mit Bedacht einzuschätzen.
Die sechs Punkte sollten aber sicherlich immer im Auge behalten werden.
Disclaimer
Kurze Einsicht des Material: Wie für die meisten SEOs ist dieses Thema auch für uns noch relativ frisch. Die Datenmenge hat so einen grossen Umfang, weshalb es lange dauern wird, bis man eine sehr detaillierte Auswertung abgeben kann. Dieser Artikel fasst das aktuell Wichtigste zusammen und stützt sich auch auf der Meinung anderer SEOs. Für eine weitaus tiefere technische Analyse kann ich den Artikel auf iPullrank von Mike King (s. Quellen) empfehlen.
Datenaktualität nicht garantiert: Nur weil Daten vorhanden sind, bedeutet das nicht, dass sie aktuell oder in Gebrauch sind.
Keine schnellen Tricks: Erwartet hier keine schnellen Lösungen oder Tricks, um sofort hohe Seitenaufrufe zu erzielen. Dieser Artikel bietet solche Methoden nicht.
Unverbindliche Beratung
Das alles ist für dich immer noch undurchsichtig? Wir beraten dich gerne.
Quellen
- iPULLRANK: Secrets from the Algorithm: Google Search’s Internal Engineering Documentation Has LeakedLink opens in a new tab
- She Knows SEO: This is The Biggest Google Search Algorithm Leak in History. Here’s What it Means for BloggersLink opens in a new tab
- The Verge: The biggest findings in the Google Search leakLink opens in a new tab
SEO Südwest: 14.000 Google Ranking-Faktoren und Ranking-Features geleakedLink opens in a new tab