Es gab eine Zeit, in der es einer Science-Fiction-Zukunft entsprach, Befehle oder Fragen an eine Maschine zu senden und eine Antwort zu erhalten. Nun, für mehr als 110 Millionen Menschen allein in den USA ist das ihr alltägliches Geschenk. Laut Gartner werden im Jahr 2020 3,0 % der Suchanfragen über Sprache durchgeführt .
Voice ist die Standardschnittstelle für die mehr als 200 Millionen intelligenten Lautsprecher, von denen Canalys prognostiziert, dass sie bis Ende 2019 existieren werden . Aber die meisten Smartphones verfügen heutzutage auch über eine Art digitalen Assistenten, der eine Sprachschnittstelle ermöglicht. Das Forschungsunternehmen Juniper Research schätzt, dass bis 2023 8 Milliarden digitale Sprachassistenten im Einsatz sein werden . Die meisten davon werden sich auf Smartphones befinden, aber auch Smart-TVs, Wearables, Smart-Lautsprecher und andere IoT-Geräte werden einen deutlichen Anstieg ihrer Nutzung durch Sprachbefehle verzeichnen.
Der Markt für digitale Sprachassistenten wird von vier großen Playern dominiert:
- Google Assistant. Dieser digitale Assistent ist auf allen Android-Telefonen als Teil der Google-App installiert. Natürlich nutzt es die Google-Suche, um Ihre Fragen zu beantworten. Auch andere Google-Angebote wie YouTube oder Google Maps sind eng mit dem Assistenten verknüpft. Unternehmen können die Fähigkeiten des Assistenten durch die Entwicklung von Aktionen erweitern. Diese Aktionen können zur Interaktion mit Hardware („Hey Google, schalte das Licht im Wohnzimmer aus“) oder mit jedem anderen Onlinedienst („Hey Google, gib mir die heutigen Schlagzeilen für meine Lieblingswebsite“) verwendet werden.
- Amazon Alexa. Der digitale Assistent von Amazon ist vor allem auf der Smart-Speaker-Reihe von Amazon, Echo, verfügbar. Tatsächlich ist es jedoch auf über 20.000 Geräten verfügbar, darunter nicht nur Smart Speaker oder Wearables, sondern auch Fernseher und sogar Autos. Alexa ermöglicht auch die Erstellung von Sprach-Apps über Alexa Skills. Amazon bietet sogar die Möglichkeit von Premium-Abonnements für Skills an , sodass Verlage ihre Bemühungen monetarisieren können, indem sie mehr Personalisierungsoptionen oder eine detailliertere Berichterstattung anbieten. Als Suchmaschine nutzt Alexa Bing.
- Apple Siri. Was 2011 als iOS-App für das iPhone begann, ist heute ein vollwertiger digitaler Sprachassistent, der in alle Apple-Produkte integriert ist, einschließlich der Smart-TVs, Lautsprecher und Wearables. Apple bietet SiriKit an, damit Unternehmen ihre Apps erweitern und Sprachinteraktion über Siri ermöglichen können. Die Standardsuchmaschine, die Siri verwendet, ist Google, kann jedoch auch für die Verwendung einer anderen Suchmaschine wie Duck Duck Go oder Bing konfiguriert werden.
- Microsoft Cortana. Der digitale Assistent von Microsoft ist nativ in Windows und als eigenständige App auf Android- und iOS-Geräten verfügbar. Cortana scheint bei der Akzeptanz gegenüber anderen digitalen Assistenten hinterherzuhinken, und die Strategie von Microsoft scheint darin zu bestehen, Cortana in andere digitale Assistenten zu integrieren, anstatt mit ihnen zu konkurrieren . Microsoft erlaubt auch die Entwicklung von Drittanbieter-Skills für Cortana, allerdings vorerst nur für den US-Markt. Angesichts ihres Strategiewechsels ist unklar, ob Cortana Skills breiter verfügbar werden würde. Cortana nutzt Bing als Suchmaschine.
Inhaltsverzeichnis
Die Sprachsuche ist nicht nur für Mobilgeräte gedacht, sondern für unseren Alltag
Die Anfänge der Sprachsuche wurden durch die immer weiter zunehmende Verbreitung von Mobiltelefonen ausgelöst. Google Now, die vorherige Inkarnation des Assistenten, wurde 2012 eingeführt und Siri bereits 2011. Dies änderte sich mit der Einführung von Alexa im Jahr 2014. Der digitale Assistent lebte nun in einer Hardware, die dafür konzipiert war, Ihr Zuhause nie zu verlassen.
Die digitalen Assistenten sind mittlerweile in eine Vielzahl von Geräten integriert, von Telefonen über Uhren und Fernseher bis hin zu Autos. Menschen können jetzt in einem größeren Spektrum von Situationen mit ihnen interagieren. Aber die Art und Weise, wie wir mit dem Assistenten interagieren, unterscheidet sich natürlich radikal von der üblichen Textoberfläche von Suchmaschinen.
Wie sich die Sprachsuche von der textbasierten Suche unterscheidet
- Komplexere und längere Abfragen. Die Spracherkennung hat sich in den letzten Jahren stark weiterentwickelt und ermöglicht heute komplexere Abfragen als noch vor einigen Jahren. Dies veranlasst den Benutzer, eine natürlichere Sprache für seine Abfragen und Befehle zu verwenden.
- Mehr Fragen. Laut einer Studie von seoClarity beginnen mehr als 15 % der Sprachsuchen mit „Wie“, „Was“, „Wo“, „Wann“, „Warum“ und „Wer“. Dies liegt an der anderen Benutzeroberfläche im Vergleich zu einer textbasierten Suchmaschine.
- Kurze und prägnante Antworten. Auch wenn der Benutzer möglicherweise längere Fragen verwendet, um auszudrücken, was der Assistent tun oder nachschlagen soll, erwarten die Benutzer kurze und klare Antworten.
- Keine visuelle Informationshierarchie. Wir sind es gewohnt, visuelle Hinweise zu verwenden und zu erkennen, um Inhalte zu organisieren und die wichtigsten Aspekte dessen hervorzuheben, was wir dem Benutzer vermitteln möchten. Der Inhalt einer Zielseite sollte für reine Sprachschnittstellen neu überdacht werden, um zu erkennen, was hervorgehoben werden soll und wie dies ohne die visuellen Hinweise, die ein Browser zulässt, erfolgen kann.
- Der Gewinner bekommt alles. Wenn Sie eine Suchmaschine verwenden, können Sie durch die Suchergebnisse blättern, und auch wenn Sie selten die zweite Seite der SERP erreichen würden, können Sie durchaus auf einen Link unter den ersten drei Top-Ergebnissen klicken. Bei einer Sprachschnittstelle erhalten Benutzer keine Ergebnisseite, auf der sie auswählen können, wohin sie gehen möchten. Der digitale Assistent gibt nur ein Ergebnis zurück.
- Lokale Suche. Wenn man bedenkt, dass zwischen 30 und 40 % der mobilen Suchanfragen lokale Suchanfragen sind, können wir davon ausgehen, dass bei einem hohen Prozentsatz der Suchanfragen in der Sprachsuche auch nach lokalen Ergebnissen gefragt wird.
Keyword-Recherche für die Sprachsuche
Der Hauptunterschied bei der Keyword-Recherche für Sprache statt für Text besteht darin, dass Sie viel mehr Keywords in natürlicher Sprache verwenden. Die Art, wie wir sprechen, ist völlig anders als die Art, wie wir tippen. Wir verwenden natürliche Phrasen anstelle einer kurzen Folge von Schlüsselwörtern.
Um herauszufinden, auf welche Keywords wir abzielen, müssen wir ein semantisches Keyword-Recherchetool verwenden. Die Beantwortung der Öffentlichkeit ist in diesen Fällen das am häufigsten verwendete Instrument. Geben Sie Ihr Startschlüsselwort ein und Sie erhalten eine Liste mit Fragen zu diesem Schlüsselwort. Die Daten werden zunächst in einer Grafik dargestellt, was hübsch, aber nicht sehr nützlich ist. Glücklicherweise können Sie die Daten in einer praktischen CSV-Datei herunterladen.
Das Keyword-Recherche-Tool von Twinword verfügt außerdem über einige nützliche Filter, um Keyword-Ideen zu ermitteln. Sie können die Ergebnisse nach Suchabsicht und Schlüsselwortmustern filtern, sodass Sie nur Fragen sehen können, die Ihr Startschlüsselwort enthalten.
Sie können auch den Snippet „Leute fragen auch“ in der Google-Suche beachten, um weitere Keyword-Möglichkeiten zu entdecken.
Wenn Sie über ein Callcenter oder eine Live-Chat- oder Chatbot-Funktion verfügen, durchsuchen Sie die Daten dieser Gespräche, um die am häufigsten gestellten Fragen zu finden.
„In meiner Nähe“-Anfragen
Da lokale Suchanfragen einen großen Anteil an der Sprachsuche ausmachen, können Sie damit rechnen, dass viele Suchanfragen mit der Phrase „in meiner Nähe“ enden. Wie in: „Was ist das beste Sushi in meiner Nähe“ oder „Was ist das beste Fitnessstudio in meiner Nähe“. Wie kann man das optimieren? Lokale Unternehmen sollten ihre Daten in Verzeichnissen wie Yelp, Bewertungsseiten wie Tripadvisor und Diensten wie Kayak aktualisieren lassen. Für Verlage sind strukturierte Daten die Antwort.
So optimieren Sie Ihre Inhalte für die Sprachsuche
Optimieren Sie Ihre Website für Mobilgeräte
Die meisten Optimierungen, die Sie an Ihrer Website vornehmen sollten, um sicherzustellen, dass sie in der mobilen Suche gut abschneidet, wirken sich auch positiv auf Ihr Ranking in der Sprachsuche aus. Einer der wichtigsten Faktoren ist die Geschwindigkeit der Website. Unabhängig davon, ob es sich bei der Schnittstelle um Sprache oder ein mobiles Gerät handelt, erwarten die Menschen schnelle Ergebnisse.
Verwenden Sie AMP und strukturierte Daten
Strukturierte Daten sind der Schlüssel dazu, dass Google Ihre Inhalte besser versteht und analysiert, damit es Ihrer Zielgruppe besser die Antworten liefern kann, nach denen sie sucht. Sie können Google dabei helfen, Personen, Organisationen, Veranstaltungen, Rezepte, Produkte und Orte zu identifizieren.
AMP steht für Accelerated Mobile Pages. Dabei handelt es sich um ein von Google ins Leben gerufenes Open-Source-Projekt, das die Funktionalität von Webseiten einschränkt, um deren Geschwindigkeit drastisch zu erhöhen. AMP wird häufig mit strukturierten Daten verwendet, da AMP-Seiten so in Rich-Suchergebnissen auf der Suchergebnisseite angezeigt werden können.
Darüber hinaus ist für Publisher die Anzeige Ihrer Inhalte im AMP-Format mit strukturierten Daten eine der Voraussetzungen für die Erstellung einer Aktion für Google Assistant .
Es gibt ein strukturiertes Datenschema namens „speakable“ , das sich derzeit in der Betaphase befindet und Abschnitte in einem Artikel identifiziert, die für die Text-zu-Sprache-Wiedergabe geeignet sind. Mit diesem Schema getaggte Inhalte werden von Google Assistant als Inhalte identifiziert, die über ein Google Assistant-fähiges Gerät gelesen werden können. Der Inhalt wird der Quelle zugeordnet und die URL an das mobile Gerät des Nutzers gesendet.
Dieses strukturierte Datenschema ist nur für englischsprachige Nutzer in den USA über Verlage verfügbar, die in Google News vertreten sind.
Beantworten Sie Benutzerfragen prägnant
Laut einer Studie von Backlinko ist das typische Sprachsuchergebnis nur 29 Wörter lang, aber die Wortanzahl einer Sprachsuchergebnisseite beträgt 2.312 Wörter. Das ist kein Widerspruch. Im ersten Fall geht es darum, dass der digitale Assistent eine bestimmte Frage oder Abfrage beantwortet. Im zweiten Fall bezieht sich die Wortanzahl auf die Quelle der Antwort. Es ist unklar, ob Google lange Inhalte als Qualitätsmerkmal bevorzugt oder ob einfach mehr Inhalt bedeutet, dass die Wahrscheinlichkeit größer ist, dass eine Seite als Antwort auf eine Anfrage verwendet wird.
In jedem Fall sagen uns diese beiden Statistiken zusammen, dass wir über die Struktur unserer Inhalte nachdenken müssen, damit wir die Hauptgedanken und wichtigsten Erkenntnisse in kurzen Absätzen ansprechen, die von einem Sprachassistenten erfasst werden können.
Schreiben Sie Inhalte, die leicht zu lesen und zu verstehen sind
Wenn Sie möchten, dass Ihre Inhalte in der Sprachinteraktion verwendet werden, müssen sie leicht zu lesen und vor allem für Ihre Leser leicht zu verstehen sein. Denken Sie daran, dass Benutzer keine visuellen Hinweise oder Elemente wie Überschriften oder Grafiken verwenden können, um Ihre Inhalte besser zu verstehen.
Denken Sie daran, dass die meisten Anfragen in natürlicher Sprache gestellt werden, als ob sie ein Gespräch führen würden. Berücksichtigen Sie dies bei der Entwicklung Ihrer Inhalte und schreiben Sie bei der Beantwortung spezifischer Fragen im Gespräch.
Streben Sie einen hohen Rang und hervorgehobene Snippets an
Hier handelt es sich um Korrelation und nicht um Kausalität. Aber es gibt Hinweise, wie Backlinko in seiner Google Assistant-Recherche zu Sprachergebnissen analysiert hat, dass mehr als 75 % der Sprachsuchergebnisse von den ersten drei Positionen im SERP stammen und dass 40 % von einem Featured Snippet stammen.
Dies ist nur ein weiterer Beweis dafür, dass Google Assistant und andere digitale Sprachassistenten äußerst verlässliche Ergebnisse bevorzugen, um sicherzustellen, dass sie die Benutzeranfrage bei der ersten Antwort erfüllen.
Da es sich bei Featured Snippets bereits um kurze Antworten auf bestimmte Fragen handelt, ist es sinnvoll, dass der Assistant diese verwendet.
Das bedeutet, dass Ihre Optimierungsbemühungen für die Google-Suche auch einen messbaren Einfluss darauf haben, wie Ihre Inhalte von einem digitalen Sprachassistenten genutzt werden.
Analysieren und beantworten Sie die Benutzerabsicht
Identifizieren Sie die Benutzerabsicht, für die Sie Inhalte bereitstellen. Drei Hauptabsichten des Benutzers können durch die Sprachsuche beantwortet werden. Zunächst geht es darum, Informationen einzuholen: Was ist das? Wie mache ich das?. Die zweite Frage ist die Navigation: Wo ist das? Und die dritte und letzte Absicht ist Handeln: einen Tisch in einem Restaurant reservieren, ein Paar Schuhe kaufen, eine Liste aller Musikkonzerte erhalten, die dieses Wochenende stattfinden.
L'Oreal hat eine Content-Strategie implementiert, die auf der Beantwortung von „How to“-Fragen basiert . Ihre Forschung zeigt, dass ihre Nutzer mithilfe von Sprachsuchanfragen genau danach suchen.
Bauen Sie Ihr Vertrauen und Ihre Autorität auf
Wie wir gesehen haben, ist die Sprachsuche ein Spiel, bei dem es nur um die Gewinner geht. Ein digitaler Sprachassistent zeigt keine Ergebnisliste an, sondern liefert direkt eine Antwort aus diesen Suchergebnissen. Da sie nur ein Ergebnis liefern können, ist es sinnvoll, dass sie tendenziell Ergebnisse von Domänen mit hoher Autorität bevorzugen, auch wenn diese möglicherweise nicht das Top-Ergebnis für diese Abfrage sind.
Lokales SEO ist der Schlüssel für die Sprachsuche
Ein hohes Volumen an Sprachsuchanfragen bezieht sich auf lokale Ergebnisse. Bei der Optimierung für lokale SEO-Anfragen geht es nicht so sehr darum, Inhalte mit lokalen Schlüsselwörtern zu produzieren, sondern vielmehr darum, eine gesunde und aktuelle Präsenz bei bestimmten Diensten und Verzeichnissen aufrechtzuerhalten. Beispielsweise sollten lokale Unternehmen ihren Eintrag bei Google My Business , Bing Places for Business und Apple Maps Connect . Sie hätten dann eine bessere Kontrolle über die von Google Assistant, Alexa, Cortana und Siri abgerufenen Informationen, die auch Daten und Bewertungen von Yelp nutzen.
Verlage (und auch lokale Unternehmen) können strukturierte Daten implementieren, um lokale Elemente in ihren Inhalten hervorzuheben, so wie Yelp und Ticketmaster dies für ihre Rezensionen und Veranstaltungen tun. Erstellen Sie Google Actions oder Alexa Skills, um Benutzern die Interaktion mit Ihren Inhalten zu ermöglichen
Alle wichtigen digitalen Sprachassistenten ermöglichen die Erstellung von Sprach-Apps, damit Benutzer über die Assistenten mit Ihren Inhalten interagieren können.
Google geht noch einen Schritt weiter und auf Grundlage der strukturierten Daten Ihrer Website automatisch Aktionen für Ihre Inhalte In diesem Fall erhält Ihr Websitebesitzer, wie in den Daten der Google Search Console angegeben, eine E-Mail. Dann können Sie Ihre Aktion beanspruchen oder deaktivieren.
Google wird beispielsweise eine Aktion für Podcasts basierend auf ihrem RSS-Feed erstellen, die es Nutzern ermöglicht, Episoden über den Assistenten auf ihren Geräten zu finden und abzuspielen. Anleitungen, FAQs und Rezepte verwenden auch strukturierte Datenmarkierungen, um Aktionen automatisch zu generieren.
Inhalte unserer Partner
Als Nachrichtenverleger müssen Sie bereits bei Google News registriert sein und AMP und strukturierte Daten in Ihren Artikeln verwenden, um automatisch eine Aktion generieren zu können.
Verlage haben bereits begonnen, Partnerschaften mit Google einzugehen, um spezielle Aktionen zu entwickeln. Vogue führte 2017 eine Funktion ein, mit der Nutzer mit der Publikation in Google Home interagieren , um mehr Informationen über bestimmte Geschichten zu erhalten, die von den Autoren selbst erzählt wurden.
Andere Verlage wie Bloomberg oder The Washington Post , die es den Nutzern ermöglichen, sich täglich die wichtigsten Nachrichten des Tages anzuhören.
Die Daily Mail ging noch einen Schritt weiter und stellte ihre gesamte Tagesausgabe auf Alexa zur Verfügung . Während andere Verlage den Ton selbst aufzeichnen, nutzt die Daily Mail in diesem Fall die automatisierten Text-to-Speech-Funktionen von Alexa. Ein weiterer Unterschied besteht darin, dass die Daily Mail diese Funktion in diesem Fall nur ihren aktuellen Abonnenten zur Verfügung stellt.
Können Sie die Auswirkungen der Sprachsuche analysieren?
Die kurze Antwort ist nein. Zumindest noch nicht. seit mindestens 2016 ankündigt , Sprachsuchanalysen in die Google Search Console integrieren zu wollen, ist es eine Tatsache, dass es bis heute keine Möglichkeit gibt, Sprachsuchanfragen und -ergebnisse zu analysieren.
Es gibt einige Herausforderungen, die Google und andere Analyseanbieter daran hindern, diese Funktion bereitzustellen:
- Erstens sind Abfragen in natürlicher Sprache tendenziell länger als schlüsselwortbasierte Abfragen. Und die Leute werden im Wesentlichen die gleiche Anfrage formulieren, indem sie unterschiedliche Wörter oder Satzkonstruktionen verwenden. Dies bedeutet, dass dieselbe Abfrage viele Variationen mit geringem Volumen aufweist, was es schwierig macht, aussagekräftige Erkenntnisse zu analysieren und zu extrahieren.
- Die zweite Herausforderung besteht darin, dass Sprachsuchanfragen oft wie in einem Gespräch aneinander gekettet sind. Sie können beispielsweise einen digitalen Sprachassistenten fragen: „Wer ist Stephen Curry?“. Der Assistent wird eine Zusammenfassung der Leistungen des NBA-Stars zurücksenden. Sie können sie fragen: „Wie groß ist er?“ und der Assistent weiß, dass Sie sich auf Stephen Curry beziehen. Das Problem wird noch komplizierter, wenn man bedenkt, dass beide Anfragen vom Assistenten mithilfe zweier unterschiedlicher Inhaltsquellen beantwortet werden könnten.
Jede Analysefunktion für die Sprachsuche muss beide Herausforderungen berücksichtigen und:
- Bieten Sie eine Möglichkeit, ähnliche Abfragen zu gruppieren, und geben Sie Analysten gleichzeitig die Freiheit, diese Variationen zu untersuchen, um die Sprache des Benutzers besser zu verstehen.
- Zeigen Sie Konversationsbäume an, um zu verstehen, wie Benutzer durch die Informationen navigieren und welche Abfragen sie in unseren Inhalten halten und welche dazu führen, dass die Abfrage mit Inhalten von anderen Websites beantwortet wird.
Publisher, die verstehen möchten, wie sich die Sprachsuche auf ihre Online-Präsenz auswirkt, könnten damit beginnen, die Suchanfragen zu analysieren, die Menschen auf Ihre Website bringen, und nach längeren, eher konversationsorientierten Suchanfragen sowie nach Suchanfragen suchen, die als Frage formuliert sind.
Sie können auch Tests mit verschiedenen digitalen Sprachassistenten durchführen, um zu überprüfen, welche Quellen sie für ihre Antworten verwenden (Sprachassistenten beginnen ihre Antworten mit „laut…“) und wie dies mit den SERPs in der Google-Suche korreliert.
Die Sprachsuche ist bereits unsere Gegenwart
Der Wandel der Verbrauchergewohnheiten und die zunehmende Rolle intelligenter Geräte und digitaler Assistenten in unserem Alltag bedeuten, dass die Sprachsuche keine Zukunftsmusik ist. Ist bereits ein Geschenk, mit dem wir uns befassen müssen.
Verlage müssen den Wechsel der Benutzeroberfläche von Text und visuellen Referenzen hin zu reiner Sprache berücksichtigen. Es ist ein Wandel, der die Art und Weise verändert, wie Menschen auf unsere Inhalte zugreifen und sie konsumieren. Der Mangel an zuverlässigen Analysen zum Verständnis der Sprachsuchleistung macht es schwierig, dieses Ziel zu erreichen. Aber wie bei jedem anderen Aspekt der Suche kommt es darauf an, durch verlässliche, qualitativ hochwertige Inhalte Vertrauen bei Ihrem Publikum aufzubauen.