Die Art und Weise, wie Benutzer heute nach Content suchen und damit interagieren, hat sich durch technische Neuerungen wie digitale Assistenten mit Spracherkennung verändert. Suchmaschinen sind bestrebt, ihre Algorithmen an diese Veränderungen anzupassen, um relevantere und benutzerfreundlichere Suchergebnisse zu bieten. Google ist dies mit dem Algorithmus BERT gelungen, der kürzlich der Öffentlichkeit präsentiert wurde.
Was ist BERT?
BERT, kurz für
Bidirectional Encoder Representations from Transformers, ist das noch recht junge neuronale Netzwerk von Google, mit dem die
Verarbeitung natürlicher Sprache (NLP) trainiert wird. BERT entstand aus Forschungsarbeiten zu Transformationen, die Jacob Devlin und seine Google-Kollegen 2018 durchführten. Diese
Transformer sind Modelle, die Wörter unter Berücksichtigung ihrer Beziehung zu allen anderen Wörtern eines Satzes verarbeiten – im Unterschied zu Modellen, die die Elemente eines Satzes der Reihe nach analysieren.
BERT ist die wichtigste Änderung der Google-Suche seit der Einführung von
RankBrain im Jahr 2015. Eingeführt wurde der Algorithmus im Oktober 2019 zunächst nur für englischsprachige Suchen, doch schon seit Dezember desselben Jahres wird er auf über 70 Sprachen angewendet. Hier eine Übersicht aller
Google-Updates von Moz.
Wie funktioniert BERT?
Computer waren noch nie besonders gut darin, natürliche Sprache zu verstehen. Um dies zu ändern, wendeten sich Wissenschaftler neuen Technologien zur Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) zu. Einige gängige NLP-Modelle umfassen Funktionen zur Eigennamenerkennung, Klassifizierung und Fragenbeantwortung. NLP-Modelle haben jedoch eine große Schwäche: Sie sind jeweils nur für die Lösung einer ganz bestimmten sprachlichen Aufgabe geeignet.
Anders BERT: Der Google-Algorithmus beseitigt diese Schwäche und kann praktisch alle NLP-Aufgaben bewältigen. Forscher entwickelten BERT mithilfe einer Methode, die als „Masking“ bezeichnet wird; dabei wird in einem Satz ein x-beliebiges Wort maskiert, d. h. durch ein Token ersetzt. BERT untersucht dann die Wörter vor und nach dem maskierten Wort, um ebenjenes vorherzusagen; dies nennt sich „bidirektionales Modell“. Durch Wiederholung kann das System maskierte Wörter mit der Zeit immer besser vorhersagen und damit auch natürliche Sprache generell immer besser verstehen. Kurzum, BERT trägt zum Training hochaktueller Frage-Antwort-Systeme bei.
Warum ist BERT relevant?
BERT dient – wie alle Google-Algorithmen – dazu, Benutzern das Auffinden relevanten und nützlichen Contents zu erleichtern.
Google demonstriert dies am
Beispiel von Suchergebnissen vor und nach Einführung von BERT für den sprachlich nicht ganz korrekten Suchausdruck „2019 Brazil traveller to USA need visa“ (2019 Tourist aus Brasilien nach USA braucht Visum). Google verweist darauf, dass das Wörtchen „to“ (nach/in) hier für das Verständnis der Gesamtaussage zentrale Bedeutung hat. Schließlich will der Tourist aus Brasilien in die USA reisen, nicht umgekehrt.
RankBrain und frühere Google-Algorithmen waren nicht imstande, den Kontext von „to“ zu erschließen, und gaben daher auch Ergebnisse für US-Bürger aus, die nach Brasilien reisen. BERT hingegen versteht die Bedeutungsnuance von „to“ in diesem Zusammenhang und zeigt demnach nur Ergebnisse für Reisende in die USA.
Nach eigener Schätzung des Unternehmens dürfte die Google-Suche mithilfe von BERT
anfangs jede zehnte Suchanfrage (in Englisch) so verstehen, dass das Ranking für Featured Snippets entsprechend beeinflusst wird. (Featured Snippets sind Website-Ausschnitte, die in der Google-Suche ganz oben, noch vor den eigentlichen Suchergebnissen, angezeigt werden – sozusagen die Crème de la Crème des Ergebnis-Rankings.) Für Marketingexperten steht damit einiges auf dem Spiel: Sie müssen ihren Content anders formulieren und die Änderungen, die Google und andere Suchmaschinen an ihren Algorithmen vornehmen, genauestens im Auge behalten. Nur so können sie sicherstellen, dass ihr Content bei der Suche leicht auffindbar ist.
Wie sich mit BERT das Ranking verbessern lässt
Seit der Einführung von BERT ist die Qualität von Marketing-Content wichtiger denn je. Zuvor versuchten Marketingexperten oft, in ihrem Content möglichst viele hochwertige Keywords unterzubekommen. Mit dieser Methode der Suchmaschinenoptimierung (SEO) ließ sich ein gutes Ranking erreichen, auch wenn die Lesbarkeit darunter litt. Dank BERT dürfte es nun schwieriger sein, mit solchen wenig lesbaren Inhalten auf den vordersten Ranking-Plätzen zu landen.
Dies heißt freilich keineswegs, dass Sie nun alle SEO-Erfolgsmethoden aufgeben müssen. Auch in Zukunft werden grundlegende SEO-Methoden eine Rolle spielen, darunter die Recherche und Transkreation von Keywords (vor allem
Long Tail Keywords), interne und externe Links, Überschriften usw. Allerdings sollten Sie bei Anwendung solcher Methoden keine Abstriche bei der Qualität machen.
Aber wie schreibt man in der BERT-Ära qualitativ hochwertigen Content, der ein hohes Ranking erreicht? Dazu haben wir sechs Tipps für Sie.
Antworten genau auf mögliche Fragen abstimmen
Antworten sollten Sie im Stil von Siri oder Alexa schreiben, die auf Fragen meist mit einem oder zwei Sätzen reagieren. Das heißt natürlich, dass die Antwort exakt zur Frage passen muss. Eine typische Antwort sollte dem Muster „[Thema] ist [Antwort]“ entsprechen. Stellen Sie sich vor, ein Benutzer fragt „Wo ist Disney World?“. Das Thema der Frage ist also Disney World, und auf diese Frage sollten Sie eine einfache, direkte Antwort im obigen Stil geben. Ergo: „Disney World befindet sich in Orlando, Florida.“
Einheiten und Klassifizierungen festlegen
Achten Sie auf die verschiedenen Bedeutungsnuancen von Wörtern und darauf, ob damit bestimmte Einheiten und/oder Klassifizierungen verbunden sind. NLP-Algorithmen suchen nämlich genau danach, wenn sie analysieren, ob Content die Antwort auf eine Frage enthält. Nehmen wir als Beispiel die Suchanfrage „richtige Brattemperatur von Schweinekoteletts“. Die Temperatur wird in der Regel in Grad Celsius oder Grad Fahrenheit gemessen, also muss die Antwort eine Zahl und eine Maßeinheit enthalten. Eine mögliche Antwort wäre: „Braten Sie Schweinekoteletts, bis eine Innentemperatur von mindestens 60 °C erreicht ist.“ Je nachdem, wo Ihre Zielgruppe verortet ist, kann es jedoch sinnvoll sein, als Maßeinheit Grad Fahrenheit zu verwenden.
Kurz und bündig formulieren
Lange, gut ausformulierte Texte mögen angenehm klingen und sogar literarische Qualitäten haben, aber bei BERT kommen sie weniger gut an. Daher sollten Sie Fragen so knapp und präzise wie möglich beantworten.
Keywords in natürlich klingende Sätze einbauen
Wie oben schon erwähnt, erschwert eine hohe Keyword-Dichte – sogenanntes „Keyword Stuffing“ – die Verständlichkeit des Textes und verschafft Ihnen Abzüge im Google-Ranking. Daher sollten Sie diese Praxis im BERT-Zeitalter unbedingt vermeiden. Besser ist es, einzelne Keywords so zu verwenden, wie Sie dies in einem normalen Gespräch tun würden – verzichten Sie also auf konstruierte, sehr bemüht wirkende Sätze. Long Tail Keywords eignen sich hervorragend für SEO-Zwecke, aber sie müssen zu Suchanfragen passen, die Benutzer per Spracheingabe stellen.
Verwandte Keywords nutzen
Verwandte Keywords sind solche, die oft in der Nähe eines bestimmten Ausdrucks vorkommen. Wer sie einsetzt, erhöht damit die Relevanz des Haupt-Keywords. Ermitteln Sie verwandte Keywords im Vorfeld und bauen Sie sie in natürlich klingenden Content ein. Die verwandten Keywords selbst sind dabei nicht für das Ranking maßgeblich, verbessern aber die Erkennung oder das Verständnis des eigentlichen Zielausdrucks. Nehmen wir beispielsweise an, Sie möchten ein gutes Ranking für „Content-Marketing“ erzielen. In diesem Fall könnten Sie verwandte Begriffe wie „SEO“, „SERP“, „Wortzahl“, „Meta-Tags“ usw. in den Text einbauen, damit die Seite relevanter wird.
Alle Facetten einer Frage beantworten
Wir empfehlen, mögliche Suchanfragen konsequent zu Ende zu denken: Welche Folgefragen oder zusätzlichen Fragen könnten beim Benutzer aufkommen? Ihr Content sollte nach Möglichkeit alle Fragen beantworten, die ein Benutzer stellen könnte, wenn er eine bestimmte Suche durchführt. Wie schon gesagt, je präziser und nützlicher Ihr Content ist, desto besser wird sein Ranking ausfallen. Sucht ein Benutzer zum Beispiel nach „Girokonto“, wäre es sicherlich sinnvoll, auch potenzielle Fragen nach Arten von Girokonten oder nach der Vorgehensweise zur Eröffnung eines Girokontos gleich mit abzudecken
Auf den Gebrauch bestimmter Wörter achten
Im obigen Beispiel des brasilianischen Touristen, der in die USA reisen möchte, haben wir auf die Bedeutung des kleinen Wörtchens „to“ hingewiesen. Auch im Deutschen gibt es viele solcher Wörter, auf die Sie Acht geben sollten: „aber“, „nicht“, „außer“, „aus“, „in“ oder „über“. BERT analysiert die Bedeutungen dieser Wörter sehr genau, weshalb Sie unbedingt sicherstellen sollten, dass sie zur Intention Ihres Contents passen.
BERT und andere NLP-Technologien werden die Art und Weise, wie Google und andere Suchmaschinen Content-Rankings vornehmen, weiterhin verändern. Für das Benutzungserlebnis werden natürlich klingende, relevante Suchergebnisse immer wichtiger. Dementsprechend sollten Marketingexperten hochwertigen Content erstellen, wenn sie auch mit dem BERT-Algorithmus ein gutes Ranking erreichen möchten. Wer das nicht beachtet, läuft Gefahr, der Konkurrenz hinterherzuhinken. Für den Einstieg ist es ratsam, die Tipps in diesem Blogbeitrag zu beherzigen. Außerdem sollten Sie die Entwicklung von BERT und anderen NLP-Modellen verfolgen, damit Sie jederzeit auf dem neuesten Stand der Content-Marketing-Praxis sind.
Wir bedanken uns bei Hinde Lamrani, unsere Expertin für internationale Suchen, die zu diesem Blogbeitrag wertvolle Einblicke beigesteuert hat!