Die Suche nach Stichworten oder Keywords wird weniger. Stattdessen werden die Suchen immer öfter über die Voice Search durchgeführt. Diese Suche orientiert sich stärker an einer normalen Unterhaltung, weshalb Suchmaschinen die Wörter einer Anfrage stärker in Beziehung setzen müssen. Hier kommt Googles Update BERT ins Spiel.

Wir sprechen hier nicht von der Sesamstraße, auch wenn der Name wohl dort seinen Ursprung hat. Das Akronym steht für Biderectional Encoder Representations from Transformers – kurz: BERT. Es stellt ein Verfahren für Natural Language Processing (NLP) dar. Der Name erinnert schon ein wenig an einen Menschen. Das ist vermutlich auch beabsichtigt, da es sich hier um eine künstliche Intelligenz handelt.

Bei einer in natürlicher Sprache gestellten Frage müssen Wörter stärker in Beziehungen gestellt werden. Bislang wurden hierbei beispielsweise Präpositionen weniger beachtet, da das Verständnis fehlte. Allerdings ist das neueste Update auch kein Wunderwerk. Die Sätze sollten nach wie vor nicht allzu verschachtelt sein.

Wo finden wir BERT?

Momentan ist das Update nur in englischer Sprache aktiv. Ein deutscher Release sowie weitere soll es dann in einer bereits optimierten Version geben. BERTs Algorithmus ist darauf ausgelegt zu lernen. Die dahinterstehende Technologie ist seit letztem Jahr bekannt: Semi Supervise Sequence Learning, Generative Pre-Training, ELMO und ULMFit. Es ist dadurch eine konsequente Weiterentwicklung von Panda, Hummingbird und Rank Brain. Und bietet eine spannende Ergänzung zu kontextfreien Modellen wie Word2Vec und GloVe. Auf Googles Blog berichten sie ausführlich über BERT und die mit ihm einhergehenden Neuerungen.

Seit dem 24. Oktober ist BERT nun aktiv und betreffe jede 10. organische Suchanfrage. Für diese Funktion gibt es keine Release-Timeline für andere Länder. Für Featured-Snippets hingegen wird BERT bereits in 25 verschiedenen Sprachen genutzt.

Aber wie nimmt BERT Suchanfragen auf?

Wenn wir nun die Frage stellen: „Darf ich Medikamente für jemand anderen in der Apotheke holen?“ Hierbei hat der Algorithmus die Begriffe „Medikamente“ und „Apotheke“ herausgefiltert und angenommen, der Suchende brauchte eine lokale Apotheke. BERT kann das allerdings weiter in Relation setzen. So ist es ihm möglich auch den Kontext dazwischen zu verstehen.