5/5 - (4 votes)

Googles Engagement in Sachen Machine-Learning könnte in der Zukunft dazu führen , dass die Auszeichnung von Informationen mittels strukturierter Daten überflüssig werden könnte. Die Hinweise von Google weisen darauf hin.

Google lernt auch dank der Mithilfe von Webmastern und SEOs

Der Aufbau einer semantischen Datenbank in Form des Knowldege Graph aber auch generell bei der Identifikation von Entitäten hängt viel von der Mithilfe von externen Personen wie z.B. Webmastern, Wikipedia-Editoren … ab. Generell möchte Google aber langfristig unabhängig an interpretierbare Daten gelangen, damit das Projekt Knowledge Graph nicht ins Stocken gerät.

Das zeigt auch das Projekt Knowledge Vault. Der Knowledge Vault wurde 2014 von Google als inaktives Entwicklungsprojekt vorgestellt, bei dem mit Hilfe von Web-Crawling und Machine Learning sowohl strukturierte als auch unstrukturierte Daten, die größte Wissens-Datenbank der Welt aufgebaut werden soll. Dazu ob und wie weit Google diese Datenbank schon aktiv nutzt gibt es bis dato keine Informationen. Ich gehe aber davon aus, dass der Knowledge Graph bereits aus dem Knowledge Vault Informationen bezieht.  Mehr dazu im Beitrag Google “Knowledge Vault” To Power Future Of Search .

Ich gehe davon aus, dass Google ein großes Interesse daran hat, Informationen für den Knowledge Graph auch unabhängig von der Mithilfe externer Personen zu erkennen, am besten automatisiert. Es gibt schon einige Hinweise darauf, dass Google sich hier immer wieder durch Menschen verifizierte Trainingsdaten für die eigenen Machine-Learning-Systeme beschafft, um auch Entitäten schneller zu identifizieren und zu klassifizieren.

Zum Beispiel lässt Google auch die Informationen für die Medical Boxes von Professoren und Doktoren von Harvard sowie der Mayo Clinic gegenprüfen, bevor sie in den Knowledge-Graph-Boxen publiziert werden.

Diese manuelle Prüfung könnte man auch beim Supervised Machine Learning zur Verbesserung der Algorithmen nutzen. Auch das Feedback der Such-Evaluatoren (Quality Rater) könnte Google als wertvolle Trainingsdaten den selbst Machine-Learning-Algorithmen als Futter spendieren.

 

Structured Data als menschliche Trainingsdaten für den Google-Algorithmus

Ein weiteres Beispiel dafür, dass Google zukünftig immer mehr versucht, unabhängig von Webmastern zu aggieren, ist das rel-Authorship-Mark-Up. Dieses Mark-Up hatte nach meiner Meinung nur eine Aufgabe für Google. Identifikation von Mustern, die für bestimmte Arten von Entitäten in diesem Fall Autoren stehen. Die Informationen und Mark-Ups wurden von Menschen (in erster Linie SEOs und Webmaster) angelegt bzw. eingepflegt und waren somit verifizierte Trainingsdaten für Google, um über die Machine-Learning-Algorithmen Modellgruppen für Autoren nach diesen Mustern anzulegen.

Damit ist es nicht verwunderlich, dass Google irgendwann die Projekte rel-Authorship oder Freebase nicht mehr weiter verfolgt hat. Freebase wurde zu Beginn von Menschen mit Daten gefüttert, die gemäß einer semantischen Grundstruktur angelegt wurden. Damit hatte Google zum Einen eine semantische Spielwiese und genug von Menschen verifizierte Trainingsdaten für die Machine-Learning-Algorithmen zur Verfügung. Freebase war aber nur kurzfristiges Mittel zum Zweck.

Strukturierte Daten für Google Shopping überflüssig

Dass strukturierte Daten nur eine Zwischenstation sein könnten und Google am Liebsten auf diese Zuarbeit in Form der Auszeichnung durch Webmaster und SEOs verzichten will, zeigen auch neueste Entwicklungen bei Google AdWords bzw. Google Shopping.

So bekamen AdWords-Werbetreibende, die einen Shopping-Feed betreiben in den letzten Monaten eine Mail mit folgendem Wortlaut:

„Ab dem 30. Oktober 2017 werden die aktuellsten Informationen zu Preisen und Verfügbarkeit Ihrer Artikel anhand von Anmerkungen für strukturierte Daten oder zusätzlichen Informationen (wenn keine strukturierten Daten verfügbar sind) ermittelt. Somit profitieren Ihre Kunden von einer höheren Nutzerfreundlichkeit bei Google Shopping.“

Wenn man sich dazu mal die Shopping Hilfe ansieht findet man dort folgende Formulierung in Bezug auf die Shopping-Feeds:

„Advanced extractors are able to find price and availability information on a product’s landing page. They use a combination of statistical models and machine learning to detect and extract product data from your website independent structured data markup. “ Quelle: https://support.google.com/merchants/answer/3246284?hl=en

Google hat also über die letzten Jahre durch Machine Learning gelernt, automatisiert und unabhängig von strukturierten Daten Inhalte zu interpretieren und einer Klasse zuzuordnen. Dabei waren die Shop-Betreiber, die in den letzten Jahren brav ihre Shopping Feeds mit strukturierten Daten ausgezeichnet haben, eine wichtige Hilfe – ein verifiziertes Trainingsfutter für den hungrigen Machine-Learning-Algo von Google Shopping.

Auch aus dem Mund von Gary Illyes wird dieses Ziel von Google klar geäußert:

“I want to live in a world where schema is not that important, but currently, we need it. If a team at Google recommends it, you probably should make use of it, as schema helps us understand the content on the page, and it is used in certain search features (but not in rankings algorithms)… Google should have algorithms that can figure out things without needing schema…” Quelle: https://searchengineland.com/gary-illyes-ask-anything-smx-east-285706

Ich muss dazu erwähnen, dass Gary in der selben Quelle die Frage, ob schema.org-Daten als Trainingsdaten genutzt werden verneint. Das spricht gegen meine Vermutung.

„ No, it’s being used for rich snippets.”

 

Google möchte mit Blick auf Daten unabhängig bleiben

Nach meiner Meinung wird Google in den nächsten Jahren  einen Großteil aller Inhalte ohne die Auszeichnung mit strukturierten Daten klassifizieren können. Aktuell sind sie nur menschlich verifizierte Trainingsdaten, die irgendwann obsolet werden könnten.

Google möchte am liebsten völlig unabhängig aggieren und auf externe Daten, die sie nicht selbst generieren können verzichten. Das war schon immer so. Und auch die Auszeichnung von strukturierten Daten durch SEOs und Webmaster ist suboptimal für Google, da nur technisch versierte Webmaster in der Lage sind ihre Websites ganzheitlich mit strukturierten Daten auszuzeichnen.

Die Hinweise von seitens Google bezüglich strukturierte Daten, wie z.B. durch John Müller auf dem SEOday 2017 zeigen, dass Google scheinbar noch nicht so weit ist Inhalte ohne die Auszeichnung mittels strukturierter Daten zu klassifizieren.

So hält sich auch hartnäckig das unbestätige Gerücht, dass strukturierte Daten zukünftig ein Rankingfaktor werden könnten. Das spielt Google in die Karten, da dadurch SEOs immer weiter strukturierte Daten für die Machine Learning Algos von Google liefern und diese immer besser bei der automatischen eigenständigen Klassifizierung von Inhalten werden.

Mehr zum Thema Machine Learning im Beitrag Bedeutung von Machine Learning, AI & Rankbrain für SEO & Google 

 

Zu Olaf Kopp

Olaf Kopp ist Online-Marketing-Experte mit mehr als 15 Jahren Erfahrung in Google Ads, SEO und Content Marketing. Olaf Kopp ist Co-Founder, Chief Business Development Officer (CBDO) und Head of SEO bei der Online Marketing Agentur Aufgesang GmbH. Er ist international anerkannter Branchenexperte für semantische SEO, E-E-A-T, KI- und Suchmaschinen-Technologie, Content-Marketing und Customer Journey Management. Als Autor schreibt er für nationale und internationale Fachmagazine wie Searchengineland, t3n, Website Boosting, Hubspot Blog, Sistrix Blog, Oncrawl Blog ... . 2022 war er Top Contributor bei Search Engine Land. Als Speaker stand er auf Bühnen der SMX, SEA/SEO World, CMCx, OMT, Digital Bash oder Campixx. Er ist ist Host der Podcasts OM Cafe und Digital Authorities. Er ist ist Autor des Buches "Content-Marketing entlang der Customer Journey", Co-Autor des Standardwerks "Der Online Marketing Manager" und Mitorganisator des SEAcamp.

5 Kommentare

    Dein Artikel ist also einfach nur eine Einschätzung der aktuellen Lage, wenn ich das richtig verstehe(?).
    Auch der Hinweis am Schluss, dass Google es offenbar bis heute (SEOday 2017) nicht schafft Webseiteninhalte, ohne diese Strukturierte Daten, richtig (also mit ausreichender Genauigkeit) zu interpretieren, zeigt ja eher deren Notwendigkeit.
    „Das sich etwas in Zukunft ändern könnte …“ naja, is klar. Wichtiger wäre es zu wissen wann sich etwas ändert.
    Habe schon vieles, interessanteres, von Dir gelesen;-)

      Olaf Kopp sagt:

      Hallo Norbert, der Artikel hat weniger etwas mit einer Bestandsaufnahme zu tun. Er soll dahingehend sensibilisieren, dass Google immer wieder gerne die unfreiwillige Mithilfe von Webmastern und SEOs nutzt, um eigene Entwicklungen voranzutreiben. Was wir gerade im Bereich AdWords sehen spiegelt genau das wieder wo Google eigentlich hin will. Unabhängigkeit von externen Faktoren. Google mag keine Abhängigkeiten, gerade was Daten angeht.

    Hey Olaf. Danke für deine Einschätzung. Dann bleiben wir mal gespannt, wie lange Google gerade die Reviews bereit ist anzunehmen. Da wird ja auch schon lange spekuliert, wann zumindest die Sterne in den SERPs wegfallen.

    Klingt logisch. Meinst du, es hat derzeit trotzdem noch Sinn, strukturierte Daten anzulegen?

      Olaf Kopp sagt:

      Hallo Kirsten, da es nur eine Vermutung von mir ist in jedem Fall. Ich würde mich hier aber auf die strukturierten Daten konzentrieren, die die Snippets beeinflussen können wie Reviews, Events … Alles andere halte ich für überflüssig.