Semantische Webagenten - «Suchmaschinen» der Zukunft

Semantic Network

Im Rahmen meines Referats zum Thema Contentstrategie bei der Expertengruppe SOMshare sprach ich im zweiten Teil (i) rückblickend über die sich verändernden Kriterien, nach denen Google von 1999 bis 2012 eine Webseite beurteilt(e), und wagte (ii) einen kleinen Ausblick auf semantische Webagenten, die m.E. in Zukunft unser "Such"verhalten dominieren werden.

Fasst man die Google-Kriterien von 1999 bis 2012 zusammen (Details finden sich in der Präsentation unten, Slides 30 bis 35), dann kann man folgendes festhalten:

  • Linkbasierte Faktoren haben seit 2009 massiv an Bedeutung verloren
  • Social (eingehende Links von Social Media: Re-Tweets, Facebook Likes und Shares, Google Plus +1 etc.) und Brand (steht hinter einer Domain ein Brand oder ist sie auf generische Suchanfragen ausgerichtet, wie z.B. Linkfarmen, buycheapviagranow.com etc.?) Signals haben an Bedeutung gewonnen
  • Author Authority wird erstmals erhoben und fliesst in die Resultate ein

Parallel zu den sich verändernden Kriterien gab es aber immer schon die Bemühungen, das aktive Suchen durch den Nutzer zu automatisieren, bzw. proaktiv zu gestalten. Kurz: Google geht es im Grunde - so paradox das aktuell auch klingen mag.

Semantische Webagenten

Hier kommen nun die semantischen Webagenten ins Spiel. Ich habe versucht, diese basierend auf den derzeit verbreiteten zwei bekannten Lösungen Sir und Google Now zu definieren:

Semantische Webagenten sind Programme, die Aufträge entgegennehmen und autonom bearbeiten (Siri) bzw.dem Nutzer vorausschauend, auf bestehenden Daten basierend Informationen zur Verfügung stellen (Google Now).

Hier exemplarisch dargestellt am Beispiel Siri von Apple. Im Zusammenhang mit Content und Contentstrategie interessiert uns v.a. das Backend, und zwar die beiden Themen "Language Processing & Learning" sowie die Services.

How Siri works

Heute werden diese (fast) ausschliesslich mit maschinenlesebarem, d.h. speziell dazu aufbereitetem Content gespiesen. Allgemein bekannt dürften z.B. die Fahrplandaten des öffentlichen Verkehrs sein, die - wo vorhanden - in Google Maps bei einem Klick auf eine Haltestelle angezeigt werden. In nicht allzu ferner Zukunft werden diese Agenten aber fähig sein, jeden beliebigen Content zu verstehen. Spätestens dann stellt sich die Frage, wie muss ich meine Inhalte aufbereiten, damit sie diesen Agenten als Informationsquelle dienen?

Fiktives Beispiel: automatisiertes Online-Reisebüro

Anhand des neuen Google Hotel Finder, der ja zusammen mit anderen solchen Diensten demnächst auch in Europa starten wird, habe ich das Szenario des automatisierten Online-Reisebüros entworfen:

Aus dem Hotel Finder entsteht im Google Ökosystem (Kalender, Flights, Mail, Google+, Offers, Wallet, Streetview, Translate etc.) ein automatisiertes Online-Reisebüro, welches mir z.B. basierend auf einem Kalendereintrag die ganze Suche abnimmt, passende Flüge etc. präsentiert, einen individuellen Reiseplan inkl. –führer zusammenstellt usw.

Science Fiction? Vielleicht. Aber ich bin überzeugt davon, dass solche Agenten mittelfristig kommen werden, zusammen mit einer neuen Kategorie von Geräten, die das Smartphone/Tablet ablösen oder ersetzen werden.

Kommentare

Hi Michael

Spannende Präsentation. Ich hatte vor kurzen im Rahmen des Internet Briefing selbst eine Präsentation zum Thema "Google und die semantische Suche" gehalten. Die Präsentation habe ich hier einfach mal frech verlinkt. Wir sind aber eher zum Schluss gekommen, dass Google hier an eigentlicher Semantik scheitert und sich wohl auch in näherer Zukunft auf die Aggregation von strukturierten Daten beschränkt. Die Aufgabe zur Strukturierung wird dabei sogar an die Websitenbetreiber ausgelagert.

mfg
Raphael

gis

Ja, ich weiss, habe ich gesehen. Ich war an dem Tag leider verhindert, sonst wär' ich auch gekommen, so als (fast) regelmässiger Besucher von Retos Events. Danke für den Link. Ich bin ja, was SEO/SEM anbelangt, nur interessierter Laie ;)

Einen Kommentar verfassen

* = benötigte Eingabe