Du interessierst Dich für das Thema semantische Suche bzw. semantische Suchmaschinen. Dann bist Du in unserem Glossar für Fachbegriffe aus dem (Online-) Marketing genau richtig. In diesem Beitrag bekommst Du alle wichtigen Informationen zum Thema semantische Suche.

 

Was ist eine semantische Suchmaschine? Was ist semantische Suche?

Eine semantische Suchmaschine berücksichtigt den semantischen Kontext von Suchanfragen und Inhalten, um die Bedeutung besser zu verstehen. 

Im Gegensatz zu rein Keyword basierten Such-Systemen soll in der semantischen Suche die Bedeutung der Suchanfrage und von Dokumenten besser interpretiert werden. Während Keyword basierte Suchmaschinen auf Grundlage eines Keyword-Text-Abgleich funktionieren, berücksichtigen semantische Suchmaschinen auch die Beziehungen zwischen Entitäten für die Ausgabe von Suchergebnissen.

Semantische Suche und Suchintention

Viele Definitionen, die man zur semantischen Suche findet, fokussieren sich auf die Interpretation der Suchintention als Wesen der semantischen Suche. Aber in erster Linie geht es bei der semantischen Suche um das Erkennen der Bedeutung von Suchanfragen und Inhalten anhand der vorkommenden Entitäten. 

Semantik = Bedeutungslehre. 

Bedeutung ist aber nicht gleich Intention. 

Die Suchintention beschreibt die Erwartung, die ein Nutzer an die Suchergebnisse stellt. Die Bedeutung ist etwas anderes.

 

Die Identifikation der Bedeutung kann dabei helfen die Suchintention zu erkennen, ist aber eher ein Zusatznutzen der semantischen Suche.

Welche semantischen Suchmaschinen gibt es?

Es gibt eine Reihe semantischer Suchmaschinen, die allerdings relativ einfach funktionieren bzw. nur einen kleine Datenbestand verfügen.

Google ist die Suchmaschine mit dem größten semantischen Datenbestand in Form des Knowledge Graph und dem Knowledge Vault.

Die Rolle vom Knowledge Graph in der semantische Suche bei Google

Für eine Entitäten-basiertes Ranking bedarf es auch ein Entitäten basiertes Indexing. Der Knowledge Graph ist Googles Entitäten-Index, in dem Beziehungen zwischen den Entitäten berücksichtigt werden. Klassische Indizes sind in tabellarischer Form organisiert und lassen dadurch keine Abbildung der Beziehungen zwischen Datensätzen zu.

Ein Knowledge Graph ist eine semantische Datenbank, in der Informationen so strukturierte aufgearbeitet sind, dass aus den Informationen Wissen entsteht. In einem Knowledge Graph werden Entitäten (Knoten) über Kanten in Beziehung zueinander gestellt, mit Attributen und weiteren Informationen versehen und in thematischen Kontext bzw. Ontologien gebracht.

Entitäten sind das zentrale Organisations-Element in semantischen Datenbanken wir dem Knowledge Graph von Google.

Neben den Beziehungen zwischen den Entitäten sammelt Google über Data Mining Attribute und weitere Informationen zu den Entitäten und organisiert diese rund um die Entitäten.

Entitäten im Knowledge Graph

Entitäten im Knowledge Graph

Wenn man nach einer Entität googlet bekommt man einen Eindruck davon welche Quellen und Informationen Google für eine Entität berücksichtigt.

SERPs zur Suchanfrage Taylor Swift

Die favorisierten Quellen, Attribute und Informationen variieren je nach Entitäten-Typ. Bei einer Personen-Entitäten sind diese anders als bei einer Event-Entität oder Organisations-Entität. Das ist auch entscheidend dafür welche Informationen in einem Knowledge Panel angezeigt werden.

Mehr zu den zentralen Organisations-Elementen rund um eine Entitäten-basierte Indexierung findest du im Beitrag „Alles was Du zu Entitäts-Typen, -Klassen & Attributen wissen solltest“.

Die Struktur eines Entitäten-basierten Index erlaubt es Antworten auf Fragen zu geben, in denen ein Thema oder Entität gesucht wird, die in der Frage nicht genannt wird.

In diesem Beispiel sind „Australien“ und „Canberra“ die Entitäten und der Wert „Hauptstadt“ beschreibt die Art der Beziehung.

Eine Keyword-basierte Suchmaschine hätte diese Antwort nicht ausgeben können.

Als Grundlage für den Knowledge Graph dienen drei Ebenen:

  • Entitäten-Katalog: Hier werden alle Entitäten gespeichert, die mit der Zeit identifiziert worden sind.
  • Knowledge Repository: Die Entitäten werden in einem Wissensdepot (Knowledge Repository) mit den Informationen bzw. Attributen aus verschiedenen Quellen zusammengeführt. Im Knowledge Repository geht es in erster Linie um die Zusammenführung und Speicherung von Beschreibungen und die Bildung semantischer Klassen bzw. Gruppen in Form von Entitätstypen. Die Daten generiert Google über den Knowledge Vault. Über den Knowledge Vault ist es Google möglich, Data Mining aus unstrukturierten Quellen zu betreiben.
  • Knowledge Graph: Im Knowledge Graph werden die Entitäten mit Attributen verknüpft und Beziehungen zwischen Entitäten hergestellt.

Für die Identifikation von Entitäten und der dazugehörigen Informationen kann Google auf verschiedene Quellen zurückgreifen.

Übersicht: Datenquellen für den Google Knowledge Graph

Mehr zum Thema „Erfassung von Informationen aus strukturierten Daten und Data Mining aus unstrukturierten Daten“ in den Beiträgen „Wie verarbeitet Google Informationen aus der Wikipedia für den Knowledge Graph?“ und „Wie kann Google aus unstrukturierten Inhalten Entitäten identifizieren und deuten?“.

Nicht alle im Knowledge Repository erfassten Entitäten werden in den Knowledge Graph übernommen. Folgende Kriterien könnten über die Aufnahmen in den Knowledge Graph entscheiden:

Generelle Kriterien:

  • Nachhaltige gesellschaftliche Relevanz
  • Genügend Suchtreffer für die Entität im Google-Index
  • Anhaltende öffentliche Wahrnehmung
  • Einträge in einem anerkannten Lexikon oder einer anerkannten Enzyklopädie bzw. in einem fachspezifischen Nachschlagewerk

Wie funktioniert Google als semantische Suchmaschine?

Google nutzt die semantische Suche in den folgenden Bereichen:

  1. Verständnis von Suchanfragen bzw. Entitäten beim Search Query Processing
  2. Verstehen der Inhalte über Entitäten für das Ranking
  3. Verstehen der Inhalte und Entitäten für das Data Mining
  4. Kontextuelle Einordnung von Entitäten für eine spätere E-E-A-T-Bewertung

Die Google-Suche basiert heute auf einem Search-Query-Processor für die Interpretation von Suchanfragen und der Zusammenstellung von Korpussen aus für die Suchanfrage relevanten Dokumenten. Hier kommen wahrscheinlich BERT, MUM und Rankbrain zum Einsatz.

Im Search Query Processing werden die Suchterme mit den in den semantischen Datenbanken erfassten Entitäten abgeglichen, ggf. verfeinert oder umgeschrieben. Mehr zum Thema Search Query Processing erfahren

Im nächsten Schritt wird die Suchintention bestimmt und ein passender Korpus aus x Inhalten ermittelt.

Dabei greift Google auf den klassischen Such-Index, als auch auf die eigene semantische Datenbank in Form des Knowledge Graph zurück. Es ist wahrscheinlich, dass  zwischen diesen beiden Datenbanken ein Austausch über eine Schnittstelle stattfindet.

Eine Scoring Engine aus verschiedenen Algorithmen basierend auf dem Kern-Algorithmus von Hummingbird ist für das Scoring also die Bewertung der Inhalte zuständig und bringt diese dann anhand des Scorings in eine Reihenfolge. Bei dem Scoring geht es um die Relevanz eines Inhalts in Bezug auf die Suchanfrage bzw. Suchintention.

Da Google neben der Relevanz auch die Qualität von Inhalten bewerten möchte muss noch eine Bewertung nach E-E-A-T-Kriterien erfolgen. Welche Kriterien das sein könnten findest Du im Beitrag 20+ E-E-A-T-Bewertungs-Faktoren für das Ranking bei Google

Für diese E-E-A-T-Bewertung muss Google die Expertise, Autorität und Trustworthiness der Domain, des Publishers und/oder Autors bewerten. Hierfür können die semantischen Entitäten-Datenbanken die Grundlage sein. 

Über eine Cleaning Engine werden diese Suchergebnisse dann von Duplikaten befreit und etwaige Abstrafungen berücksichtigt.

 

So kann Google die Bedeutung von Suchtermen identifizieren, ohne dass die eigentlichen Begriffe im Suchterm vorkommen. Die Suchanfrage nach „sängerin blank space“ ergibt folgendes Suchergebnis:

Knowledge Card für Taylor Swift

Diese Interpretation der Suchanfrage und Ausgabe der Informationen kann nur funktionieren, wenn die verschiedenen Entitäten aus dem Song Blank Space, der Personen-Entität Taylor Swift in Beziehung zueinander gesetzt werden können, was im Knowledge Graph von Google passiert.

Beziehungen im Google Knowledge Graph

Durch Vektorraumanalysen und Machine Learning zum besseren semantischen Verständnis

Durch Vektorraumanalysen lassen sich Suchanfragen und Inhalte in einen thematischen Kontext bringen. Man kann Entitäten, Inhalte oder Suchanfragen in einem Vektorraum verorten. Der Abstand der unterschiedlichen Begriffe zueinander gibt Auskunft über den thematischen Kontext in dem die Vektoren genutzt werden. Über diesen Weg lassen sich thematische Ontologien bzw. Kategorien ermitteln in dem Keywords bzw. Entitäten zu verorten sind.

Die Methodik Wörter als Vektoren maschinenlesbar zu transformieren (Word2Vec) hat Google 2015 mit Rankbrain offziell eingeführt, um insbesondere Suchanfragen besser zu verstehen. Rankbrain wurde als Innovation für das sogenannte Query Processing, also der Vorgang zur Interpretation von Suchanfragen, vorgestellt. Mit Rankbrain wurde auch das erste mal seitens Google bestätigt, dass Machine-Learning für die Google-Suche zum Einsatz kommt.

Funktionalität und Einsatzgebiete von Natural Language Processing in modernen Suchmaschinen

Mit der Einführung von BERT im Jahr 2018 gab es die offizielle Bestätigung von Google, dass sie Natural Language Processing für die Google-Suche nutzen. Beim Natural Language Processing als Teilbereich von Machine Learning geht es darum menschliche Sprache in geschriebener und gesprochener Form besser zu verstehen und unstrukturierte Informationen in maschinen lesbare strukturierte Daten umzuwandeln. Teilaufgaben von NLP sind Übersetzung von Sprachen und die Beantwortung von Fragen. Hier wird schnell klar wie wichtig diese Technologie für moderne Suchmaschinen wie Google ist.

Generell kann man die Funktionsweise von NLP grob in die folgendenden Prozessschritte aufgliedern:

  • Datenbereitstellung
  • Datenvorbereitung
  • Textanalyse
  • Textanreicherung

Die Kernkomponenten von NLP sind Tokenization zu deutsch Tokenisierung, Kennzeichnung von Wörtern nach Wortarten (Part of Speech Tagging), Lemmatisierung, Wort-Abhängigkeiten (Dependency Parsing), Parse Labeling, Extraktion von benannten Entitäten (Named Entity Recognition), Salience-Scoring, Sentiment-Analysen, Kategorisierung, Text-Klassifizierung, Extrahierung von Content-Typen und Identifikation einer impliziten Bedeutung aufgrund der Struktur.

  • Tokenisierung: Tokenisierung ist der Vorgang, bei dem ein Satz in verschiedene Begriffe unterteilt wird.
  • Kennzeichnung von Wörtern nach Wortarten: Wortartenkennzeichnung klassifiziert Wörter nach Wortarten wie z.B. Subjekt, Objekt, Prädikat, Adjektiv …
  • Wortabhängigkeiten: Wortabhängigkeiten schafft Beziehungen zwischen den Wörtern basierend auf Grammatikregeln. Dieser Prozess bildet auch „Sprünge“ zwischen Wörtern ab.
  • Lemmatisierung: Die Lemmatisierung bestimmt, ob ein Wort verschiedene Formen hat und normalisiert Abwandlungen zur Grundform,. Zum Beispiel ist die Grundform von Tiere, Tier oder von verspielt, Spiel.
  • Parsing Labels: Die Kennzeichnung klassifiziert die Abhängigkeit oder die Art der Beziehung zwischen zwei Wörtern, die über eine Abhängigkeit verbunden sind.
  • Analyse und Extraktion von benannten Entitäten: Dieser Aspekt sollte uns aus den vorangegangenen Beiträgen bekannt sein. Damit wird versucht, Wörter mit einer „bekannten“ Bedeutung zu identifizieren und Klassen von Entitätstypen zuzuordnen. Im Allgemeinen sind benannte Entitäten Menschen, Orte und Dinge (Substantive).  Entitäten können auch Produktnamen enthalten. Dies sind im Allgemeinen die Wörter, die ein Knowledge Panel auslösen. Aber auch Begriffe, die kein eigenes Knowledge Panel auslösen können Entität sein.

 

Beispiel einer Syntax-Analyse aus der NLP-API-Demo, Quelle: Google

Über Natural Language Processing können in Suchanfragen, Sätze und Textabschnitten Entitäten identifiziert sowie die einzelnen Bestandteile in sogenannte Tokens zerlegt werden und in Beziehung zueinander gesetzt werden. Auch ein grammatikalisches Verständnis kann durch NLP algorithmisch entwickelt werden.

Mit der Einführung von Natural Language Processing ist Google auch in der Lage mehr als nur die Substantive für die Interpretation von Suchanfragen, Texten und Sprache zu deuten. So sind seit BERT auch Verben, Adverbien, Adjektive für die Ermittlung des Kontext wichtig. Durch die Identifikation der Beziehungen zwischen den Tokens lassen sich Bezüge herstellen und so können auch Personalpronomen gedeutet werden.

Ein Beispiel:

„Olaf Kopp ist Head of SEO bei Aufgesang. Er beschäftigt sich seit 2005 mit Online-Marketing.“

In der Zeit vor Natural Language Processing konnte Google mit dem Personalpronomen „er“ nichts anfangen, da kein Bezug zur Entität „Olaf Kopp“ hergestellt werden konnte. Für die Indexierung und Ranking wurden nur die Begriffe Olaf Kopp, Head of SEO, Aufgesang, 2005 und Online Marketing berücksichtigt.

Über Natural Language Processing lassen sich nicht nur Entitäten in Suchanfragen und Inhalten identifizieren, sondern auch die Beziehung dieser zueinander.

Dabei wird die grammatikalische Satzstruktur, als auch Bezüge innerhalb von ganzen Absätzen und Texten berücksichtigt. Nomen bzw. Subjekt und Objekt in einem Satz können als potentielle Entitäten identifiziert werden. Über Verben lassen sich Beziehungen zwischen Entitäten herstellen. Durch Adjektive ein Sentiment (Stimmung) um eine Entität ermitteln.

Natural Language Processing über Vektoren

Über Natural Language Processing lassen sich auch konkrete W-Fragen besser beantworten, was für die Bedienung von Voice Search eine deutliche Weiterentwicklung darstellt.

Auch für das von Google 2021 eingeführte Passage Ranking spielt Natural Language Processing eine zentrale Rolle.

Seit der Einführung von BERT im Jahr 2018 nutzt Google diese Technologie in der Google-Suche. Das 2021 eingeführt Passage-Ranking basiert auf Natural Language Processing, da Google hier einzelne Textpassagen durch die neuen Möglichkeiten besser interpretieren kann.

 

Natural Language Processing zum Aufbau einer semantischen Wissensdatenbank

Während bis dato Google von manuell gepflegten strukturieren und semistrukturierten Informationen bzw. Datenbanken abhängig war ist es seit BERT möglich Entitäten und deren Beziehungen aus unstrukturierten Datenquellen zu extrahieren und in einem Graphen-Index zu speichern. Ein Quanten-Sprung in Sachen Data-Mining.

Dafür kann Google die bereits verifizierten Daten aus (semi-)strukturierten Datenbanken wie dem Knowledge Graph, Wikipedia … als Trainingsdaten nutzen, um zu lernen unstrukturierte Informationen zu bestehenden Modellen bzw. Klassen zuzuordnen und neue Muster zu erkennen. Hier spielt Natural Language Processing in Form von BERT und MUM die entscheidende Rolle.

Bereits 2013 hat Google erkannt, dass der Aufbau einer semantischen Datenbank wie dem Knowledge Graph ausschließlich basierend auf strukturiertem Daten zu langsam und nicht skalierbar möglich ist, da die große Masse an sogenannten Long-Tail-Entitäten nicht in (semi-)strukturierten Datenbanken erfasst sind. Zur Erfassung dieser Longtail-Entitäten bzw. des vollständigen Wissens der Welt stellt Google 2013 den Knowledge Vault vor, der aber seitdem nicht mehr groß Erwähnung fand. Der Ansatz über eine Technologie das komplette im Internet verfügbare Wissen für eine semantische Datenbank zu nutzen wird durch Natural Language Processing Realität. Es ist davon auszugehen, dass es neben dem Knowledge Graph eine Art Zwischenpeicher gibt in dem Google das über Natural Language Processing generierte Wissen zu erfassen und zu strukturieren bzw. organisieren. Sobald ein Validitäts-Schwellenwert erreicht werden die Entitäten und Informationen in den Knowledge Graph überführt. Dieser Zwischenspeicher könnte der Knowledge Vault sein.

Übersicht Data Mining für den Google Knowledge Graph, ©Olaf Kopp

Dadurch lässt sich auch erklären warum der Knowledge Graph gerade in den letzten Jahren sehr schnell gewachsen ist.

By mid-2016, Google reported that it held 70 billion facts and answered „roughly one-third“ of the 100 billion monthly searches they handled. By March 2023, this had grown to 800 billion facts on 8 billion entities.”, Quelle: https://en.wikipedia.org/wiki/Google_Knowledge_Graph 

 

Sprachmodelle als Alternative zum klassischen Suche-Index und Knowledge Graph

Der Aufstieg der Sprachmodelle kann für die Google-Suche einen fundamentalen Shift von klassischen Indizes zu Sprachmodellen führen, wie in der wissenschaftlichen Arbeit „Rethinking Search: Making Domain Experts out of Dilettantes“ vorgestellt. Der klassische Retrieve-and-Rank-Prozess wird verkürzt bzw. über Sprachmodelle durchgeführt. Entitäten, Inhalte, Textpassagen … können als Embeddings in einer Vektor-Datenbank gespeichert werden. Einzelne Tasks können neben einem generellen Sprachmodell in feinjustierten Sprachmodellen abgewickelt werden.

 

Das kann auch Auswirkungen auf die weitere Verwendung des Knowledge Graph als Entitäten-Speicher haben. Obwohl Sprachmodelle keine Wissensdatenbanken sind können sich zukünftige leistungsstärkere Sprachmodelle einem echten semantischen Verständnis und Wissen annähern. Knowledge Graphen könnten weiterhin beim Finetuning und Faktencheck unterstützen um semantische Beziehungen besser zu verstehen und das Risiko der Halluzinationen mindern.

Knowledge Graph im Zusammenspiel mit LLM

 

 

Die Geschichte von Google als semantische Suchmaschine

Hier eine Aufstellung der bedeutensten Innovationen, die Google seit 2010 auf dem Weg zur semantischen Suchmaschine eingeführt hat:

  • 2010: Google kauft Freebase, eine vom Unternehmen Metaweb erstellte semantische Datenbank mit strukturierten maschinenlesbaren Daten zu Entitäten. Die erste Version den Knowledge Graph wurde durch Daten aus Freebase gespeist. 2014 wurde Freebase in das Projekt Wikidata übertragen. Von den ursprünglich ca. 10 Millionen Datensätzen aus Freebase wurde aber nur ein Teil übertragen.
  • 2012: Google führt den Knowledge Graph in Form der Knowledge Panels und Knowledge Cards in die Suche ein. Ein Knowledge Graph ist eine Wissens-Datenbank, in der Informationen so strukturierte aufgearbeitet sind, dass aus den Informationen Wissen entsteht. Ein einem Knowledge Graph werden Entitäten (Knoten) über Kanten in Beziehung zueinander gestellt, mit Attributen versehen und in thematischen Kontext bzw. Ontologien gebracht. Dazu weiter unten in diesem Beitrag mehr oder hier >>> Google Knowledge Graph einfach erklärt
  • 2013: Google stellt das Hummigbird-Update als neue Generation der Ranking-Algorithmen vor. Die Einführung von Hummingbird zum 15. Geburtstag von Google im Jahr 2013 war  der endgültige Startschuss der semantischen Suche für Google. Google selbst hat dieses Algorithmus-Update als das bedeutenste seit dem Caffeine Update im Jahr 2010 bezeichnet. Es soll zur Einführung ca. 90% aller Suchanfragen betroffen haben und war im Vergleich zu Caffeine ein echtes Algorithmus-Update. Es soll dabei helfen komplexere Suchanfragen besser zu deuten und noch besser die eigentliche Suchintention bzw. Fragestellung hinter einer Suchanfrage zu erkennen sowie passende Dokumente dazu anzubieten. Auch auf Dokumentenebene soll die eigentliche Intention hinter dem Content besser mit der Suchanfrage gematcht werden. Mehr dazu >>> Was ist Google Hummingbird?
  • 2014: Google stellt den Knowledge Vault vor. Ein System zur Identifikation und Extraktion von Tail-Entitäten, um den Ausbau des „Long Tail of Knowledge“ voranzutreiben. Über den Knowledge Vault ist es Google möglich, Data Mining aus unstrukturierten Quellen automatisiert zu betreiben und könnte die Grundlage für die nachfolgenden Innovationen in Sachen Natural Language Processing sein.
  • 2014: Google führt E-A-T zur Bewertung von Websites in den Quality Rater Guidelines ein. Auf den ersten Blick ist die Brücke zur semantischen Suche nicht zu ziehen. Indirekt bietet das Entitäten-Konzept und Graphen-Konstrukt von semantischen Datenbanken aber eine ideale Grundlage für eine themenbezogen qualitative Bewertung von Entitäten (Publisher & Autoren) und deren Content hinsichtlich Expertise, Autorität und Trust.  Ein Entitäten basierter Index macht es möglich Entitäten wie Autoren, Publisher, Marken, Domains … Ganzheitlich zu betrachten. Das gelingt nicht wenn man nur einzelne URLs, Bilder … betrachtet, wie die klassischen Google Indizes es tun. Mehr zu E-A-T >>>> E-A-T (Expertise, Autorität, Trust) erklärt  Mehr zu den Google Quality Rater Guidelines >>> Die Google Quality Rater Guidelines & wichtigsten Erkenntnisse für SEO
  • 2015: Google führt mit Rankbrain offiziell Machine Learning in die Google-Suche ein. Über Vektorraumanalysen will die Suchmaschine Suchanfragen und generell Begrifflichkeiten besser in eine Beziehung, thematische Nähe bzw. einen Kontext verorten. Dadurch können u.a. Suchanfragen hinsichtlich der Suchintention besser interpretiert werden.
  • 2018: Google stellt BERT als neue Technologie für die bessere Interpretation von Suchanfragen und Texten vor. BERT nutzt Natural Language Processing um Suchanfragen, Sätze, Fragen, Textabschnitte und generell Content besser semantisch zu verstehen. Mehr zum Thema Natural Language Processing nachfolgend in diesem Beitrag oder hier >>> Natural Language Processing(NLP) einfach erklärt
  • 2021: Google stellt MUM als neue Technologie für das bessere semantische Verständnis von Suchanfragen, Fragen, Content in verschiedenen Formen (Text, Video, Audio, Bild) und dem der Erschließung des „Wissens der Welt“ vor. Mit MUM kann Google die semantische(n) Datenbank(en) wie dem Knowledge Graph noch schneller und umfänglicher mit Informationen zu Entitäten erweitern.
  • 2023: Unter dem öffentlichen Druck durch die Einführung von ChatGPT und die Einführung von KI-basierten Chatbot-Funktionalitäten bei Bing stellt Google BARD, das Sprachmodell PaLM 2 und eine Beta-Version der neuen Google-Suche SGE vor. Die Google-Suche entwickelt sich von einer Suchmaschine zu einer Antwortmaschine mit KI-generierten Antworten.

Nachfolgend das Ganze noch mal als Infografik zur freien Verwendung für z.B. Social Media.

Infografik semantische Suchmaschine Google, © Olaf Kopp, Aufgesang GmbH

FAQ zu semantischen Suchmaschinen

Wie semantisch ist die Google-Suche?

Aufgrund der Fortschritte, die Google in den letzten Jahren beim Deep-Learning gemacht hat ist davon auszugehen, dass das semantische Verständnis in der Zukunft sich exponentiell verbessert hat und weiter wird.

Warum ist ein semantisches Verständnis für Suchmaschinen so wichtig?

Durch semantische Methoden sind Suchmaschinen besser in der Lage die Bedeutung von Suchanfragen und deren Suchintention, als auch die Bedeutung von Dokumenten besser zu erkennen.

Welche Rolle spielen Entitäten in der semantischen Suche?

Entitäten sind das zentrale Element für semantische Suchmaschinen, um ein besseres Verständnis von Suchanfragen, Dokumenten und Websites zu bekommen.

Weitere Quellen zur semantischen Suche

Zu Olaf Kopp

Olaf Kopp ist Online-Marketing-Experte mit mehr als 15 Jahren Erfahrung in Google Ads, SEO und Content Marketing. Olaf Kopp ist Co-Founder, Chief Business Development Officer (CBDO) und Head of SEO bei der Online Marketing Agentur Aufgesang GmbH. Er ist international anerkannter Branchenexperte für semantische SEO, E-E-A-T, KI- und Suchmaschinen-Technologie, Content-Marketing und Customer Journey Management. Als Autor schreibt er für nationale und internationale Fachmagazine wie Searchengineland, t3n, Website Boosting, Hubspot Blog, Sistrix Blog, Oncrawl Blog ... . 2022 war er Top Contributor bei Search Engine Land. Als Speaker stand er auf Bühnen der SMX, SEA/SEO World, CMCx, OMT, Digital Bash oder Campixx. Er ist ist Host der Podcasts OM Cafe und Digital Authorities. Er ist ist Autor des Buches "Content-Marketing entlang der Customer Journey", Co-Autor des Standardwerks "Der Online Marketing Manager" und Mitorganisator des SEAcamp.
herausgegeben von:
Datum: 1. Juli 2023

Blog-Artikel zu diesem Thema

Googles Weg zur semantischen Suchmaschine

In diesem Beitrag möchte darauf eingehen welche Schritte und Innovationen Google seit 2010 näher an das Ziel des semantischen Verständnisses in der Suche gebracht haben. Es ist eine Zusammenfassung meiner Recherchen und Analysen seit 2013. Im Detail gehe ich auch auf die Rolle von Natural Languag... Artikel anzeigen

SEO-Aufgaben: Was macht ein SEO-Manager (m/w/d)?

Suchmaschinenoptimierung hat sich in den letzten Jahren deutlich verändert. Dadurch auch die Arbeit für SEO-Manager und SEO-Verantwortliche. In diesem Beitrag möchte ich eine Übersicht über die wichtigsten Aufgaben eines(einer) SEO-Managers/in bei der taktischen und strategischen Suchmaschineno... Artikel anzeigen

20+ Faktoren für eine E-E-A-T-Bewertung durch Google

E-E-A-T hat sich durch die Core-Updates seit 2018 zu einem der wichtigsten Rankingeinflüsse für Google-Suchergebnisse entwickelt und wird durch die Einführung von SGE zusätzlich an Wichtigkeit gewinnen. In diesem Beitrag möchte ich auf 20+ Faktoren eingehen, die Google algorithmisch für eine E... Artikel anzeigen

Brand-SEO: Suchmaschinenoptimierung für populäre Marken

Populäre Marken bzw. Brands leben in erster Linie von der Popularität der eigenen Marke(n). Eine bekannte Brand zu sein ist ein großes Asset und Marktvorteil, da Brands neben der Popularität oft auch ein großes Vertrauen genießen. Das ist ein Vorteil beim Abverkauf, für den Erfolg im Performa... Artikel anzeigen

Wie erstellt Google Knowledge Panel & Knowledge Cards?

Die Präsenz von SERP-Features wie Knowledge Panel und Knowledge Cards in den SERPs von Google steigt seit Jahren rasant an. Dadurch bekommen die klassischen Suchergebnisse auch "Blue Links" genannt immer mehr Konkurrenz, wenn es um die Aufmerksamkeit der Suchenden geht. Oder nennen wir es besser di... Artikel anzeigen

E-A-T-Optimierung: Wie optimiert man E-A-T bei Google?

E-A-T ist seit den Core-Updates in den letzten Jahren im Fokus der Suchmaschinenoptimierung. Antworten auf die Fragen warum E-A-T so wichtig für das Ranking ist, welche möglichen Signale Google für die Bewertung nutzt und wie man darauf optimiert gibt es in diesem Beitrag. Was ist E-A-T überhau... Artikel anzeigen

Google MUM Update: Was erwartet SEOs in der Zukunft?

In diesem Beitrag gehe ich auf das Google MUM-Update ein, dass Google 2021 vorgestellt hat. Ich gehe auf die Neuigkeiten ein, die auf die Suchmaschinen-Nutzer und SEOs in den nächsten Jahren durch MUM zukommen werden. Zudem gehe ich darauf ein wie SEOs und Webmaster darauf vorbereiten können. Was... Artikel anzeigen

Kontextuelle Suche für Multimedia-Content

Dieser Beitrag fasst Methoden aus einem Google-Patent für die kontextuelle Suche angewandt auf Multimedia-Content wie z.B. Videos oder Podcasts zusammen. Der Beitrag ist interessant für SEOs und Content-Verantwortliche. Zusammenfassung des Patents „Contextual Search on multimedia content“ Da... Artikel anzeigen

Google achtet jetzt auf innere Werte

2013 hat Google sich zum 15. Geburtstag ein ganz besonderes Geschenk gemacht. Die Suchmaschine hat einen Vogel, einen Kolibri, um genau zu sein und der wirbelt den Tiergarten nicht nur farblich auf. Es handelt sich dabei nämlich nicht um ein Anti-Spam-Update á la Panda oder Pinguin, mit dem die S... Artikel anzeigen