Content-Marketing im Zeitalter von NLP und BERT
Teilen
Zum Schließen hier klicken
Zum Schließen hier klicken
Hier abonnieren

Content-Marketing im Zeitalter von NLP und BERT

Die Art und Weise, wie Benutzer heute nach Content suchen und damit inter­agieren, hat sich durch tech­nische Neuerungen wie digitale Assis­tenten mit Sprach­erkennung ver­ändert. Such­maschinen sind be­strebt, ihre Algo­rithmen an diese Ver­änderungen an­zupassen, um relevantere und benutzer­freundlichere Such­ergebnisse zu bieten. Google ist dies mit dem Algo­rithmus BERT ge­lungen, der kürzlich der Öffent­lichkeit präsentiert wurde.

Was ist BERT?

BERT, kurz für Bidirectional Encoder Representations from Transformers, ist das noch recht junge neuronale Netz­werk von Google, mit dem die Ver­arbeitung natür­licher Sprache (NLP) trainiert wird. BERT ent­stand aus Forschungs­arbeiten zu Trans­formationen, die Jacob Devlin und seine Google-Kollegen 2018 durchführten. Diese Transformer sind Mo­delle, die Wörter unter Be­rück­sichtigung ihrer Be­ziehung zu allen anderen Wör­tern eines Satzes ver­arbeiten – im Unter­schied zu Modellen, die die Elemente eines Satzes der Reihe nach analysieren.

BERT ist die wichtigste Änderung der Google-Suche seit der Einführung von RankBrain im Jahr 2015. Eingeführt wurde der Algorithmus im Oktober 2019 zu­nächst nur für englisch­sprachige Suchen, doch schon seit Dezember des­selben Jahres wird er auf über 70 Sprachen an­gewendet. Hier eine Übersicht aller Google-Updates von Moz.

Wie funktioniert BERT?

Computer waren noch nie besonders gut darin, natürliche Sprache zu verstehen. Um dies zu ändern, wen­deten sich Wissen­schaftler neuen Technologien zur Ver­arbeitung na­türlicher Sprache (Natural Language Processing, NLP) zu. Einige gängige NLP-Modelle um­fassen Funk­tionen zur Eigen­namen­erkennung, Klassi­fizierung und Fragen­beantwortung. NLP-Modelle haben jedoch eine große Schwäche: Sie sind jeweils nur für die Lösung einer ganz be­stimmten sprach­lichen Aufgabe geeignet.

Anders BERT: Der Google-Algorithmus beseitigt diese Schwäche und kann praktisch alle NLP-Aufgaben be­wältigen. Forscher ent­wickelten BERT mit­hilfe einer Methode, die als „Masking“ be­zeichnet wird; dabei wird in einem Satz ein x-beliebiges Wort maskiert, d. h. durch ein Token er­setzt. BERT unter­sucht dann die Wörter vor und nach dem mas­kierten Wort, um ebenjenes vorher­zusagen; dies nennt sich „bi­direktionales Modell“. Durch Wieder­holung kann das System maskierte Wörter mit der Zeit immer besser vorher­sagen und damit auch natür­liche Sprache generell immer besser ver­stehen. Kurzum, BERT trägt zum Training hoch­aktueller Frage-Antwort-Systeme bei.

Warum ist BERT relevant?

BERT dient – wie alle Google-Algorithmen – dazu, Benutzern das Auffinden relevanten und nützlichen Contents zu erleichtern.

Google demonstriert dies am Beispiel von Such­ergebnissen vor und nach Ein­führung von BERT für den sprach­lich nicht ganz korrekten Such­ausdruck „2019 Brazil traveller to USA need visa“ (2019 Tourist aus Brasilien nach USA braucht Visum). Google ver­weist darauf, dass das Wörtchen „to“ (nach/in) hier für das Ver­ständnis der Gesamt­aussage zentrale Be­deutung hat. Schließlich will der Tourist aus Brasilien in die USA reisen, nicht umgekehrt.

RankBrain und frühere Google-Algorithmen waren nicht im­stande, den Kontext von „to“ zu er­schließen, und gaben daher auch Er­gebnisse für US-Bürger aus, die nach Brasilien reisen. BERT hingegen versteht die Bedeutungs­nuance von „to“ in diesem Zusammenhang und zeigt dem­nach nur Er­gebnisse für Reisende in die USA.

Nach eigener Schätzung des Unter­nehmens dürfte die Google-Suche mithilfe von BERT anfangs jede zehnte Suchanfrage (in Englisch) so ver­stehen, dass das Ranking für Featured Snippets ent­sprechend be­einflusst wird. (Featured Snippets sind Website-Ausschnitte, die in der Google-Suche ganz oben, noch vor den eigent­lichen Such­ergebnissen, an­gezeigt werden – sozu­sagen die Crème de la Crème des Ergebnis-Rankings.) Für Marketing­experten steht damit einiges auf dem Spiel: Sie müssen ihren Content anders formulieren und die Änderungen, die Google und andere Such­maschinen an ihren Algorithmen vor­nehmen, genauestens im Auge behalten. Nur so können sie sicher­stellen, dass ihr Content bei der Suche leicht auf­findbar ist.

Wie sich mit BERT das Ranking verbessern lässt

Seit der Einführung von BERT ist die Qualität von Marketing-Content wichtiger denn je. Zuvor ver­suchten Marketing­experten oft, in ihrem Content möglichst viele hoch­wertige Key­words unter­zubekommen. Mit dieser Methode der Such­maschinen­optimierung (SEO) ließ sich ein gutes Ranking er­reichen, auch wenn die Les­barkeit darunter litt. Dank BERT dürfte es nun schwieriger sein, mit solchen wenig les­baren In­halten auf den vordersten Ranking-Plätzen zu landen.

Dies heißt freilich keines­wegs, dass Sie nun alle SEO-Erfolgs­methoden auf­geben müssen. Auch in Zukunft werden grund­legende SEO-Methoden eine Rolle spielen, darunter die Recherche und Transkreation von Keywords (vor allem Long Tail Keywords), interne und externe Links, Über­schriften usw. Allerdings sollten Sie bei An­wendung solcher Methoden keine Ab­striche bei der Qualität machen.

Aber wie schreibt man in der BERT-Ära qualitativ hoch­wertigen Content, der ein hohes Ranking er­reicht? Dazu haben wir sechs Tipps für Sie.

Antworten genau auf mögliche Fragen abstimmen

Antworten sollten Sie im Stil von Siri oder Alexa schreiben, die auf Fragen meist mit einem oder zwei Sätzen reagieren. Das heißt natürlich, dass die Ant­wort exakt zur Frage passen muss. Eine typische Ant­wort sollte dem Muster „[Thema] ist [Antwort]“ ent­sprechen. Stellen Sie sich vor, ein Benutzer fragt „Wo ist Disney World?“. Das Thema der Frage ist also Disney World, und auf diese Frage sollten Sie eine ein­fache, direkte Antwort im obigen Stil geben. Ergo: „Disney World befindet sich in Orlando, Florida.“

Einheiten und Klassifizierungen festlegen

Achten Sie auf die ver­schiedenen Bedeutungs­nuancen von Wörtern und darauf, ob damit be­stimmte Einheiten und/oder Klassi­fizierungen ver­bunden sind. NLP-Algorithmen suchen nämlich genau danach, wenn sie analysieren, ob Content die Antwort auf eine Frage enthält. Nehmen wir als Beispiel die Such­anfrage „richtige Brat­temperatur von Schweine­koteletts“. Die Temperatur wird in der Regel in Grad Celsius oder Grad Fahrenheit ge­messen, also muss die Ant­wort eine Zahl und eine Maß­einheit ent­halten. Eine mögliche Antwort wäre: „Braten Sie Schweine­koteletts, bis eine Innen­temperatur von mindestens 60 °C er­reicht ist.“ Je nachdem, wo Ihre Ziel­gruppe verortet ist, kann es jedoch sinnvoll sein, als Maß­einheit Grad Fahrenheit zu verwenden.

Kurz und bündig formulieren

Lange, gut aus­formulierte Texte mögen angenehm klingen und sogar literarische Qualitäten haben, aber bei BERT kommen sie weniger gut an. Daher sollten Sie Fragen so knapp und präzise wie möglich beantworten.

Keywords in natürlich klingende Sätze einbauen

Wie oben schon erwähnt, erschwert eine hohe Keyword-Dichte – sogenanntes „Keyword Stuffing“ – die Ver­ständ­lichkeit des Textes und ver­schafft Ihnen Abzüge im Google-Ranking. Daher sollten Sie diese Praxis im BERT-Zeitalter unbedingt vermeiden. Besser ist es, einzelne Keywords so zu ver­wenden, wie Sie dies in einem normalen Ge­spräch tun würden – ver­zichten Sie also auf konstruierte, sehr bemüht wirkende Sätze. Long Tail Keywords eignen sich hervor­ragend für SEO-Zwecke, aber sie müssen zu Such­anfragen passen, die Benutzer per Spracheingabe stellen.

Verwandte Keywords nutzen

Verwandte Keywords sind solche, die oft in der Nähe eines be­stimmten Ausdrucks vorkommen. Wer sie einsetzt, erhöht damit die Relevanz des Haupt-Keywords. Ermitteln Sie verwandte Keywords im Vorfeld und bauen Sie sie in natürlich klingenden Content ein. Die ver­wandten Keywords selbst sind dabei nicht für das Ranking maß­geblich, ver­bessern aber die Er­kennung oder das Ver­ständnis des eigent­lichen Ziel­ausdrucks. Nehmen wir beispiels­weise an, Sie möchten ein gutes Ranking für „Content-Marketing“ erzielen. In diesem Fall könnten Sie verwandte Begriffe wie „SEO“, „SERP“, „Wortzahl“, „Meta-Tags“ usw. in den Text einbauen, damit die Seite relevanter wird.

Alle Facetten einer Frage beantworten

Wir empfehlen, mögliche Such­anfragen konse­quent zu Ende zu denken: Welche Folge­fragen oder zu­sätzlichen Fragen könnten beim Benutzer aufkommen? Ihr Content sollte nach Möglichkeit alle Fragen be­antworten, die ein Benutzer stellen könnte, wenn er eine be­stimmte Suche durch­führt. Wie schon gesagt, je präziser und nützlicher Ihr Content ist, desto besser wird sein Ranking ausfallen. Sucht ein Benutzer zum Beispiel nach „Girokonto“, wäre es sicher­lich sinnvoll, auch potenzielle Fragen nach Arten von Giro­konten oder nach der Vorgehens­weise zur Er­öffnung eines Giro­kontos gleich mit abzudecken

Auf den Gebrauch bestimmter Wörter achten

Im obigen Beispiel des brasilianischen Touristen, der in die USA reisen möchte, haben wir auf die Be­deutung des kleinen Wörtchens „to“ hin­gewiesen. Auch im Deutschen gibt es viele solcher Wörter, auf die Sie Acht geben sollten: „aber“, „nicht“, „außer“, „aus“, „in“ oder „über“. BERT analysiert die Be­deutungen dieser Wörter sehr genau, weshalb Sie un­bedingt sicher­stellen sollten, dass sie zur Intention Ihres Contents passen.

BERT und andere NLP-Technologien werden die Art und Weise, wie Google und andere Such­maschinen Content-Rankings vor­nehmen, weiter­hin verändern. Für das Benutzungs­erlebnis werden natürlich klingende, relevante Such­ergebnisse immer wichtiger. Dem­entsprechend sollten Marketing­experten hoch­wertigen Content er­stellen, wenn sie auch mit dem BERT-Algorithmus ein gutes Ranking er­reichen möchten. Wer das nicht beachtet, läuft Gefahr, der Konkurrenz hinter­herzuhinken. Für den Einstieg ist es ratsam, die Tipps in diesem Blog­beitrag zu be­herzigen. Außer­dem sollten Sie die Ent­wicklung von BERT und anderen NLP-Modellen ver­folgen, damit Sie jeder­zeit auf dem neuesten Stand der Content-Marketing-Praxis sind.

 

Wir bedanken uns bei Hinde Lamrani, unsere Expertin für internationale Suchen, die zu diesem Blog­beitrag wert­volle Ein­blicke beigesteuert hat!

 

Comments