Du interessierst Dich für das Thema semantische Suche bzw. semantische Suchmaschinen. Dann bist Du in unserem Glossar für Fachbegriffe aus dem (Online-) Marketing genau richtig. In diesem Beitrag bekommst Du alle wichtigen Informationen zum Thema semantische Suche.
Table of contents
- 1 Was ist eine semantische Suchmaschine? Was ist semantische Suche?
- 2 Semantische Suche und Suchintention
- 3 Welche semantischen Suchmaschinen gibt es?
- 4 Die Rolle vom Knowledge Graph in der semantische Suche bei Google
- 5 Wie funktioniert Google als semantische Suchmaschine?
- 6 Durch Vektorraumanalysen und Machine Learning zum besseren semantischen Verständnis
- 7 Funktionalität und Einsatzgebiete von Natural Language Processing in modernen Suchmaschinen
- 8 Natural Language Processing zum Aufbau einer semantischen Wissensdatenbank
- 9 Sprachmodelle als Alternative zum klassischen Suche-Index und Knowledge Graph
- 10 Die Geschichte von Google als semantische Suchmaschine
- 11 FAQ zu semantischen Suchmaschinen
- 12 Weitere Quellen zur semantischen Suche
Was ist eine semantische Suchmaschine? Was ist semantische Suche?
Eine semantische Suchmaschine berücksichtigt den semantischen Kontext von Suchanfragen und Inhalten, um die Bedeutung besser zu verstehen.
Im Gegensatz zu rein Keyword basierten Such-Systemen soll in der semantischen Suche die Bedeutung der Suchanfrage und von Dokumenten besser interpretiert werden. Während Keyword basierte Suchmaschinen auf Grundlage eines Keyword-Text-Abgleich funktionieren, berücksichtigen semantische Suchmaschinen auch die Beziehungen zwischen Entitäten für die Ausgabe von Suchergebnissen.
Semantische Suche und Suchintention
Viele Definitionen, die man zur semantischen Suche findet, fokussieren sich auf die Interpretation der Suchintention als Wesen der semantischen Suche. Aber in erster Linie geht es bei der semantischen Suche um das Erkennen der Bedeutung von Suchanfragen und Inhalten anhand der vorkommenden Entitäten.
Semantik = Bedeutungslehre.
Bedeutung ist aber nicht gleich Intention.
Die Suchintention beschreibt die Erwartung, die ein Nutzer an die Suchergebnisse stellt. Die Bedeutung ist etwas anderes.
Die Identifikation der Bedeutung kann dabei helfen die Suchintention zu erkennen, ist aber eher ein Zusatznutzen der semantischen Suche.
Welche semantischen Suchmaschinen gibt es?
Es gibt eine Reihe semantischer Suchmaschinen, die allerdings relativ einfach funktionieren bzw. nur einen kleine Datenbestand verfügen.
Google ist die Suchmaschine mit dem größten semantischen Datenbestand in Form des Knowledge Graph und dem Knowledge Vault.
Die Rolle vom Knowledge Graph in der semantische Suche bei Google
Für eine Entitäten-basiertes Ranking bedarf es auch ein Entitäten basiertes Indexing. Der Knowledge Graph ist Googles Entitäten-Index, in dem Beziehungen zwischen den Entitäten berücksichtigt werden. Klassische Indizes sind in tabellarischer Form organisiert und lassen dadurch keine Abbildung der Beziehungen zwischen Datensätzen zu.
Ein Knowledge Graph ist eine semantische Datenbank, in der Informationen so strukturierte aufgearbeitet sind, dass aus den Informationen Wissen entsteht. In einem Knowledge Graph werden Entitäten (Knoten) über Kanten in Beziehung zueinander gestellt, mit Attributen und weiteren Informationen versehen und in thematischen Kontext bzw. Ontologien gebracht.
Entitäten sind das zentrale Organisations-Element in semantischen Datenbanken wir dem Knowledge Graph von Google.
Neben den Beziehungen zwischen den Entitäten sammelt Google über Data Mining Attribute und weitere Informationen zu den Entitäten und organisiert diese rund um die Entitäten.
Wenn man nach einer Entität googlet bekommt man einen Eindruck davon welche Quellen und Informationen Google für eine Entität berücksichtigt.
Die favorisierten Quellen, Attribute und Informationen variieren je nach Entitäten-Typ. Bei einer Personen-Entitäten sind diese anders als bei einer Event-Entität oder Organisations-Entität. Das ist auch entscheidend dafür welche Informationen in einem Knowledge Panel angezeigt werden.
Mehr zu den zentralen Organisations-Elementen rund um eine Entitäten-basierte Indexierung findest du im Beitrag „Alles was Du zu Entitäts-Typen, -Klassen & Attributen wissen solltest“.
Die Struktur eines Entitäten-basierten Index erlaubt es Antworten auf Fragen zu geben, in denen ein Thema oder Entität gesucht wird, die in der Frage nicht genannt wird.
In diesem Beispiel sind „Australien“ und „Canberra“ die Entitäten und der Wert „Hauptstadt“ beschreibt die Art der Beziehung.
Eine Keyword-basierte Suchmaschine hätte diese Antwort nicht ausgeben können.
Als Grundlage für den Knowledge Graph dienen drei Ebenen:
- Entitäten-Katalog: Hier werden alle Entitäten gespeichert, die mit der Zeit identifiziert worden sind.
- Knowledge Repository: Die Entitäten werden in einem Wissensdepot (Knowledge Repository) mit den Informationen bzw. Attributen aus verschiedenen Quellen zusammengeführt. Im Knowledge Repository geht es in erster Linie um die Zusammenführung und Speicherung von Beschreibungen und die Bildung semantischer Klassen bzw. Gruppen in Form von Entitätstypen. Die Daten generiert Google über den Knowledge Vault. Über den Knowledge Vault ist es Google möglich, Data Mining aus unstrukturierten Quellen zu betreiben.
- Knowledge Graph: Im Knowledge Graph werden die Entitäten mit Attributen verknüpft und Beziehungen zwischen Entitäten hergestellt.
Für die Identifikation von Entitäten und der dazugehörigen Informationen kann Google auf verschiedene Quellen zurückgreifen.
Mehr zum Thema „Erfassung von Informationen aus strukturierten Daten und Data Mining aus unstrukturierten Daten“ in den Beiträgen „Wie verarbeitet Google Informationen aus der Wikipedia für den Knowledge Graph?“ und „Wie kann Google aus unstrukturierten Inhalten Entitäten identifizieren und deuten?“.
Nicht alle im Knowledge Repository erfassten Entitäten werden in den Knowledge Graph übernommen. Folgende Kriterien könnten über die Aufnahmen in den Knowledge Graph entscheiden:
Generelle Kriterien:
- Nachhaltige gesellschaftliche Relevanz
- Genügend Suchtreffer für die Entität im Google-Index
- Anhaltende öffentliche Wahrnehmung
- Einträge in einem anerkannten Lexikon oder einer anerkannten Enzyklopädie bzw. in einem fachspezifischen Nachschlagewerk
Wie funktioniert Google als semantische Suchmaschine?
Google nutzt die semantische Suche in den folgenden Bereichen:
- Verständnis von Suchanfragen bzw. Entitäten beim Search Query Processing
- Verstehen der Inhalte über Entitäten für das Ranking
- Verstehen der Inhalte und Entitäten für das Data Mining
- Kontextuelle Einordnung von Entitäten für eine spätere E-E-A-T-Bewertung
Die Google-Suche basiert heute auf einem Search-Query-Processor für die Interpretation von Suchanfragen und der Zusammenstellung von Korpussen aus für die Suchanfrage relevanten Dokumenten. Hier kommen wahrscheinlich BERT, MUM und Rankbrain zum Einsatz.
Im Search Query Processing werden die Suchterme mit den in den semantischen Datenbanken erfassten Entitäten abgeglichen, ggf. verfeinert oder umgeschrieben. Mehr zum Thema Search Query Processing erfahren.
Im nächsten Schritt wird die Suchintention bestimmt und ein passender Korpus aus x Inhalten ermittelt.
Dabei greift Google auf den klassischen Such-Index, als auch auf die eigene semantische Datenbank in Form des Knowledge Graph zurück. Es ist wahrscheinlich, dass zwischen diesen beiden Datenbanken ein Austausch über eine Schnittstelle stattfindet.
Eine Scoring Engine aus verschiedenen Algorithmen basierend auf dem Kern-Algorithmus von Hummingbird ist für das Scoring also die Bewertung der Inhalte zuständig und bringt diese dann anhand des Scorings in eine Reihenfolge. Bei dem Scoring geht es um die Relevanz eines Inhalts in Bezug auf die Suchanfrage bzw. Suchintention.
Da Google neben der Relevanz auch die Qualität von Inhalten bewerten möchte muss noch eine Bewertung nach E-E-A-T-Kriterien erfolgen. Welche Kriterien das sein könnten findest Du im Beitrag 20+ E-E-A-T-Bewertungs-Faktoren für das Ranking bei Google
Für diese E-E-A-T-Bewertung muss Google die Expertise, Autorität und Trustworthiness der Domain, des Publishers und/oder Autors bewerten. Hierfür können die semantischen Entitäten-Datenbanken die Grundlage sein.
Über eine Cleaning Engine werden diese Suchergebnisse dann von Duplikaten befreit und etwaige Abstrafungen berücksichtigt.
So kann Google die Bedeutung von Suchtermen identifizieren, ohne dass die eigentlichen Begriffe im Suchterm vorkommen. Die Suchanfrage nach „sängerin blank space“ ergibt folgendes Suchergebnis:
Diese Interpretation der Suchanfrage und Ausgabe der Informationen kann nur funktionieren, wenn die verschiedenen Entitäten aus dem Song Blank Space, der Personen-Entität Taylor Swift in Beziehung zueinander gesetzt werden können, was im Knowledge Graph von Google passiert.
Durch Vektorraumanalysen und Machine Learning zum besseren semantischen Verständnis
Durch Vektorraumanalysen lassen sich Suchanfragen und Inhalte in einen thematischen Kontext bringen. Man kann Entitäten, Inhalte oder Suchanfragen in einem Vektorraum verorten. Der Abstand der unterschiedlichen Begriffe zueinander gibt Auskunft über den thematischen Kontext in dem die Vektoren genutzt werden. Über diesen Weg lassen sich thematische Ontologien bzw. Kategorien ermitteln in dem Keywords bzw. Entitäten zu verorten sind.
Die Methodik Wörter als Vektoren maschinenlesbar zu transformieren (Word2Vec) hat Google 2015 mit Rankbrain offziell eingeführt, um insbesondere Suchanfragen besser zu verstehen. Rankbrain wurde als Innovation für das sogenannte Query Processing, also der Vorgang zur Interpretation von Suchanfragen, vorgestellt. Mit Rankbrain wurde auch das erste mal seitens Google bestätigt, dass Machine-Learning für die Google-Suche zum Einsatz kommt.
Funktionalität und Einsatzgebiete von Natural Language Processing in modernen Suchmaschinen
Mit der Einführung von BERT im Jahr 2018 gab es die offizielle Bestätigung von Google, dass sie Natural Language Processing für die Google-Suche nutzen. Beim Natural Language Processing als Teilbereich von Machine Learning geht es darum menschliche Sprache in geschriebener und gesprochener Form besser zu verstehen und unstrukturierte Informationen in maschinen lesbare strukturierte Daten umzuwandeln. Teilaufgaben von NLP sind Übersetzung von Sprachen und die Beantwortung von Fragen. Hier wird schnell klar wie wichtig diese Technologie für moderne Suchmaschinen wie Google ist.
Generell kann man die Funktionsweise von NLP grob in die folgendenden Prozessschritte aufgliedern:
- Datenbereitstellung
- Datenvorbereitung
- Textanalyse
- Textanreicherung
Die Kernkomponenten von NLP sind Tokenization zu deutsch Tokenisierung, Kennzeichnung von Wörtern nach Wortarten (Part of Speech Tagging), Lemmatisierung, Wort-Abhängigkeiten (Dependency Parsing), Parse Labeling, Extraktion von benannten Entitäten (Named Entity Recognition), Salience-Scoring, Sentiment-Analysen, Kategorisierung, Text-Klassifizierung, Extrahierung von Content-Typen und Identifikation einer impliziten Bedeutung aufgrund der Struktur.
- Tokenisierung: Tokenisierung ist der Vorgang, bei dem ein Satz in verschiedene Begriffe unterteilt wird.
- Kennzeichnung von Wörtern nach Wortarten: Wortartenkennzeichnung klassifiziert Wörter nach Wortarten wie z.B. Subjekt, Objekt, Prädikat, Adjektiv …
- Wortabhängigkeiten: Wortabhängigkeiten schafft Beziehungen zwischen den Wörtern basierend auf Grammatikregeln. Dieser Prozess bildet auch „Sprünge“ zwischen Wörtern ab.
- Lemmatisierung: Die Lemmatisierung bestimmt, ob ein Wort verschiedene Formen hat und normalisiert Abwandlungen zur Grundform,. Zum Beispiel ist die Grundform von Tiere, Tier oder von verspielt, Spiel.
- Parsing Labels: Die Kennzeichnung klassifiziert die Abhängigkeit oder die Art der Beziehung zwischen zwei Wörtern, die über eine Abhängigkeit verbunden sind.
- Analyse und Extraktion von benannten Entitäten: Dieser Aspekt sollte uns aus den vorangegangenen Beiträgen bekannt sein. Damit wird versucht, Wörter mit einer „bekannten“ Bedeutung zu identifizieren und Klassen von Entitätstypen zuzuordnen. Im Allgemeinen sind benannte Entitäten Menschen, Orte und Dinge (Substantive). Entitäten können auch Produktnamen enthalten. Dies sind im Allgemeinen die Wörter, die ein Knowledge Panel auslösen. Aber auch Begriffe, die kein eigenes Knowledge Panel auslösen können Entität sein.
Über Natural Language Processing können in Suchanfragen, Sätze und Textabschnitten Entitäten identifiziert sowie die einzelnen Bestandteile in sogenannte Tokens zerlegt werden und in Beziehung zueinander gesetzt werden. Auch ein grammatikalisches Verständnis kann durch NLP algorithmisch entwickelt werden.
Mit der Einführung von Natural Language Processing ist Google auch in der Lage mehr als nur die Substantive für die Interpretation von Suchanfragen, Texten und Sprache zu deuten. So sind seit BERT auch Verben, Adverbien, Adjektive für die Ermittlung des Kontext wichtig. Durch die Identifikation der Beziehungen zwischen den Tokens lassen sich Bezüge herstellen und so können auch Personalpronomen gedeutet werden.
Ein Beispiel:
„Olaf Kopp ist Head of SEO bei Aufgesang. Er beschäftigt sich seit 2005 mit Online-Marketing.“
In der Zeit vor Natural Language Processing konnte Google mit dem Personalpronomen „er“ nichts anfangen, da kein Bezug zur Entität „Olaf Kopp“ hergestellt werden konnte. Für die Indexierung und Ranking wurden nur die Begriffe Olaf Kopp, Head of SEO, Aufgesang, 2005 und Online Marketing berücksichtigt.
Über Natural Language Processing lassen sich nicht nur Entitäten in Suchanfragen und Inhalten identifizieren, sondern auch die Beziehung dieser zueinander.
Dabei wird die grammatikalische Satzstruktur, als auch Bezüge innerhalb von ganzen Absätzen und Texten berücksichtigt. Nomen bzw. Subjekt und Objekt in einem Satz können als potentielle Entitäten identifiziert werden. Über Verben lassen sich Beziehungen zwischen Entitäten herstellen. Durch Adjektive ein Sentiment (Stimmung) um eine Entität ermitteln.
Über Natural Language Processing lassen sich auch konkrete W-Fragen besser beantworten, was für die Bedienung von Voice Search eine deutliche Weiterentwicklung darstellt.
Auch für das von Google 2021 eingeführte Passage Ranking spielt Natural Language Processing eine zentrale Rolle.
Seit der Einführung von BERT im Jahr 2018 nutzt Google diese Technologie in der Google-Suche. Das 2021 eingeführt Passage-Ranking basiert auf Natural Language Processing, da Google hier einzelne Textpassagen durch die neuen Möglichkeiten besser interpretieren kann.
Natural Language Processing zum Aufbau einer semantischen Wissensdatenbank
Während bis dato Google von manuell gepflegten strukturieren und semistrukturierten Informationen bzw. Datenbanken abhängig war ist es seit BERT möglich Entitäten und deren Beziehungen aus unstrukturierten Datenquellen zu extrahieren und in einem Graphen-Index zu speichern. Ein Quanten-Sprung in Sachen Data-Mining.
Dafür kann Google die bereits verifizierten Daten aus (semi-)strukturierten Datenbanken wie dem Knowledge Graph, Wikipedia … als Trainingsdaten nutzen, um zu lernen unstrukturierte Informationen zu bestehenden Modellen bzw. Klassen zuzuordnen und neue Muster zu erkennen. Hier spielt Natural Language Processing in Form von BERT und MUM die entscheidende Rolle.
Bereits 2013 hat Google erkannt, dass der Aufbau einer semantischen Datenbank wie dem Knowledge Graph ausschließlich basierend auf strukturiertem Daten zu langsam und nicht skalierbar möglich ist, da die große Masse an sogenannten Long-Tail-Entitäten nicht in (semi-)strukturierten Datenbanken erfasst sind. Zur Erfassung dieser Longtail-Entitäten bzw. des vollständigen Wissens der Welt stellt Google 2013 den Knowledge Vault vor, der aber seitdem nicht mehr groß Erwähnung fand. Der Ansatz über eine Technologie das komplette im Internet verfügbare Wissen für eine semantische Datenbank zu nutzen wird durch Natural Language Processing Realität. Es ist davon auszugehen, dass es neben dem Knowledge Graph eine Art Zwischenpeicher gibt in dem Google das über Natural Language Processing generierte Wissen zu erfassen und zu strukturieren bzw. organisieren. Sobald ein Validitäts-Schwellenwert erreicht werden die Entitäten und Informationen in den Knowledge Graph überführt. Dieser Zwischenspeicher könnte der Knowledge Vault sein.
Dadurch lässt sich auch erklären warum der Knowledge Graph gerade in den letzten Jahren sehr schnell gewachsen ist.
By mid-2016, Google reported that it held 70 billion facts and answered „roughly one-third“ of the 100 billion monthly searches they handled. By March 2023, this had grown to 800 billion facts on 8 billion entities.”, Quelle: https://en.wikipedia.org/wiki/Google_Knowledge_Graph
Sprachmodelle als Alternative zum klassischen Suche-Index und Knowledge Graph
Der Aufstieg der Sprachmodelle kann für die Google-Suche einen fundamentalen Shift von klassischen Indizes zu Sprachmodellen führen, wie in der wissenschaftlichen Arbeit „Rethinking Search: Making Domain Experts out of Dilettantes“ vorgestellt. Der klassische Retrieve-and-Rank-Prozess wird verkürzt bzw. über Sprachmodelle durchgeführt. Entitäten, Inhalte, Textpassagen … können als Embeddings in einer Vektor-Datenbank gespeichert werden. Einzelne Tasks können neben einem generellen Sprachmodell in feinjustierten Sprachmodellen abgewickelt werden.
Das kann auch Auswirkungen auf die weitere Verwendung des Knowledge Graph als Entitäten-Speicher haben. Obwohl Sprachmodelle keine Wissensdatenbanken sind können sich zukünftige leistungsstärkere Sprachmodelle einem echten semantischen Verständnis und Wissen annähern. Knowledge Graphen könnten weiterhin beim Finetuning und Faktencheck unterstützen um semantische Beziehungen besser zu verstehen und das Risiko der Halluzinationen mindern.
Die Geschichte von Google als semantische Suchmaschine
Hier eine Aufstellung der bedeutensten Innovationen, die Google seit 2010 auf dem Weg zur semantischen Suchmaschine eingeführt hat:
- 2010: Google kauft Freebase, eine vom Unternehmen Metaweb erstellte semantische Datenbank mit strukturierten maschinenlesbaren Daten zu Entitäten. Die erste Version den Knowledge Graph wurde durch Daten aus Freebase gespeist. 2014 wurde Freebase in das Projekt Wikidata übertragen. Von den ursprünglich ca. 10 Millionen Datensätzen aus Freebase wurde aber nur ein Teil übertragen.
- 2012: Google führt den Knowledge Graph in Form der Knowledge Panels und Knowledge Cards in die Suche ein. Ein Knowledge Graph ist eine Wissens-Datenbank, in der Informationen so strukturierte aufgearbeitet sind, dass aus den Informationen Wissen entsteht. Ein einem Knowledge Graph werden Entitäten (Knoten) über Kanten in Beziehung zueinander gestellt, mit Attributen versehen und in thematischen Kontext bzw. Ontologien gebracht. Dazu weiter unten in diesem Beitrag mehr oder hier >>> Google Knowledge Graph einfach erklärt
- 2013: Google stellt das Hummigbird-Update als neue Generation der Ranking-Algorithmen vor. Die Einführung von Hummingbird zum 15. Geburtstag von Google im Jahr 2013 war der endgültige Startschuss der semantischen Suche für Google. Google selbst hat dieses Algorithmus-Update als das bedeutenste seit dem Caffeine Update im Jahr 2010 bezeichnet. Es soll zur Einführung ca. 90% aller Suchanfragen betroffen haben und war im Vergleich zu Caffeine ein echtes Algorithmus-Update. Es soll dabei helfen komplexere Suchanfragen besser zu deuten und noch besser die eigentliche Suchintention bzw. Fragestellung hinter einer Suchanfrage zu erkennen sowie passende Dokumente dazu anzubieten. Auch auf Dokumentenebene soll die eigentliche Intention hinter dem Content besser mit der Suchanfrage gematcht werden. Mehr dazu >>> Was ist Google Hummingbird?
- 2014: Google stellt den Knowledge Vault vor. Ein System zur Identifikation und Extraktion von Tail-Entitäten, um den Ausbau des „Long Tail of Knowledge“ voranzutreiben. Über den Knowledge Vault ist es Google möglich, Data Mining aus unstrukturierten Quellen automatisiert zu betreiben und könnte die Grundlage für die nachfolgenden Innovationen in Sachen Natural Language Processing sein.
- 2014: Google führt E-A-T zur Bewertung von Websites in den Quality Rater Guidelines ein. Auf den ersten Blick ist die Brücke zur semantischen Suche nicht zu ziehen. Indirekt bietet das Entitäten-Konzept und Graphen-Konstrukt von semantischen Datenbanken aber eine ideale Grundlage für eine themenbezogen qualitative Bewertung von Entitäten (Publisher & Autoren) und deren Content hinsichtlich Expertise, Autorität und Trust. Ein Entitäten basierter Index macht es möglich Entitäten wie Autoren, Publisher, Marken, Domains … Ganzheitlich zu betrachten. Das gelingt nicht wenn man nur einzelne URLs, Bilder … betrachtet, wie die klassischen Google Indizes es tun. Mehr zu E-A-T >>>> E-A-T (Expertise, Autorität, Trust) erklärt Mehr zu den Google Quality Rater Guidelines >>> Die Google Quality Rater Guidelines & wichtigsten Erkenntnisse für SEO
- 2015: Google führt mit Rankbrain offiziell Machine Learning in die Google-Suche ein. Über Vektorraumanalysen will die Suchmaschine Suchanfragen und generell Begrifflichkeiten besser in eine Beziehung, thematische Nähe bzw. einen Kontext verorten. Dadurch können u.a. Suchanfragen hinsichtlich der Suchintention besser interpretiert werden.
- 2018: Google stellt BERT als neue Technologie für die bessere Interpretation von Suchanfragen und Texten vor. BERT nutzt Natural Language Processing um Suchanfragen, Sätze, Fragen, Textabschnitte und generell Content besser semantisch zu verstehen. Mehr zum Thema Natural Language Processing nachfolgend in diesem Beitrag oder hier >>> Natural Language Processing(NLP) einfach erklärt
- 2021: Google stellt MUM als neue Technologie für das bessere semantische Verständnis von Suchanfragen, Fragen, Content in verschiedenen Formen (Text, Video, Audio, Bild) und dem der Erschließung des „Wissens der Welt“ vor. Mit MUM kann Google die semantische(n) Datenbank(en) wie dem Knowledge Graph noch schneller und umfänglicher mit Informationen zu Entitäten erweitern.
- 2023: Unter dem öffentlichen Druck durch die Einführung von ChatGPT und die Einführung von KI-basierten Chatbot-Funktionalitäten bei Bing stellt Google BARD, das Sprachmodell PaLM 2 und eine Beta-Version der neuen Google-Suche SGE vor. Die Google-Suche entwickelt sich von einer Suchmaschine zu einer Antwortmaschine mit KI-generierten Antworten.
Nachfolgend das Ganze noch mal als Infografik zur freien Verwendung für z.B. Social Media.
FAQ zu semantischen Suchmaschinen
Wie semantisch ist die Google-Suche?
Aufgrund der Fortschritte, die Google in den letzten Jahren beim Deep-Learning gemacht hat ist davon auszugehen, dass das semantische Verständnis in der Zukunft sich exponentiell verbessert hat und weiter wird.
Warum ist ein semantisches Verständnis für Suchmaschinen so wichtig?
Durch semantische Methoden sind Suchmaschinen besser in der Lage die Bedeutung von Suchanfragen und deren Suchintention, als auch die Bedeutung von Dokumenten besser zu erkennen.
Welche Rolle spielen Entitäten in der semantischen Suche?
Entitäten sind das zentrale Element für semantische Suchmaschinen, um ein besseres Verständnis von Suchanfragen, Dokumenten und Websites zu bekommen.
Weitere Quellen zur semantischen Suche
- https://blog.searchmetrics.com/de/semantik-entitaeten-im-seo/
- https://blog.bloofusion.de/entitaten-sentiment-seo/
- https://www.jaeckert-odaniel.com/podcast/interview-olaf-kopp/
- https://www.termfrequenz.de/podcast/car-mar-om-podcast/entitaeten-bert-e-a-t-und-mitarbeiter-gast-olaf-kopp/
- https://www.websiteboosting.com/magazin/57/entitaeten-basierte-suche-so-funktioniert-der-google-knowledge-graph.html
- Case Study: 1400% Sichtbarkeitssteigerung in 6 Monaten durch E-E-A-T der Source Entity - 24. September 2024
- Digitaler Markenaufbau: Das Zusammenspiel aus (Online-)Branding & Customer Experience - 7. August 2024
- Google Helpful Content: Was wirklich wichtig ist! - 13. Juli 2024
- Information Gain: Wie wird er berechnet? Welche Faktoren sind entscheidend? - 12. Juli 2024
- Shopping-Graph-Optimierung: Die Zukunft für Shop SEO / E-Commerce SEO - 16. Mai 2024