C'è stato un tempo in cui dare comandi o domande a una macchina e ricevere una risposta era qualcosa uscito da un futuro di fantascienza. Ebbene, per oltre 110 milioni di persone solo negli Stati Uniti , questo è il regalo quotidiano. Secondo Gartner, nel 2020 il 30% delle ricerche verrà effettuato tramite voce .
La voce è l'interfaccia predefinita per gli oltre 200 milioni di altoparlanti intelligenti che Canalys prevede che esisteranno entro la fine del 2019 . Ma la maggior parte degli smartphone oggi ha installato anche una sorta di assistente digitale che consente un’interfaccia vocale. La società di ricerca Juniper Research stima che entro il 2023 saranno in uso 8 miliardi di assistenti vocali digitali . La maggior parte di essi sarà sugli smartphone, ma anche le smart TV, i dispositivi indossabili, gli altoparlanti intelligenti e altri dispositivi IoT registreranno una crescita significativa nel loro utilizzo tramite comandi vocali.
Il mercato degli assistenti vocali digitali è dominato da quattro grandi attori:
- Assistente Google. Questo assistente digitale viene installato con tutti i telefoni Android come parte dell'app Google. Naturalmente, utilizza la ricerca di Google per rispondere alle tue domande. Anche altre proprietà di Google, come YouTube o Google Maps, sono strettamente legate all'assistente. Le aziende possono espandere le capacità dell'Assistente sviluppando azioni. Queste azioni possono essere utilizzate per interagire con l'hardware (“Ehi Google, spegni le luci in salotto”) o con qualsiasi altro servizio online (“Ehi Google, dammi i titoli di oggi per il mio sito web preferito”).
- AmazonAlexa. L'assistente digitale di Amazon è disponibile soprattutto sulla linea di altoparlanti intelligenti di Amazon, Echo. Ma in realtà è disponibile su oltre 20.000 dispositivi, inclusi non solo altoparlanti intelligenti o dispositivi indossabili, ma anche TV e persino automobili. Alexa consente anche la creazione di app vocali tramite Alexa Skills. Amazon consente anche la possibilità di abbonamenti premium per Skills , in modo che gli editori possano monetizzare i propri sforzi offrendo più opzioni di personalizzazione o una copertura più dettagliata. Alexa utilizza Bing come motore di ricerca.
- Mela Siri. Ciò che è iniziato nel 2011 come app iOS per iPhone è ora un vero e proprio assistente vocale digitale integrato in tutti i prodotti Apple, inclusa la linea di smart TV, altoparlanti e dispositivi indossabili. Apple offre SiriKit per consentire alle aziende di estendere le proprie app e consentire l'interazione vocale tramite Siri. Il motore di ricerca predefinito utilizzato da Siri è Google, sebbene possa essere configurato per utilizzare un motore di ricerca diverso, come Duck Duck Go o Bing.
- Microsoft Cortana. L'assistente digitale di Microsoft è disponibile in modo nativo su Windows e sui dispositivi Android e iOS come app autonoma. Cortana sembra essere in ritardo nell'adozione rispetto ad altri assistenti digitali e la strategia di Microsoft sembra essere quella di integrare Cortana con altri assistenti digitali, piuttosto che competere con loro . Microsoft consente anche lo sviluppo di Skill di terze parti per Cortana, ma per ora solo per il mercato statunitense. Dato il loro cambiamento di strategia, non è chiaro se Cortana Skills diventerà più ampiamente disponibile. Cortana utilizza Bing come motore di ricerca.
Sommario
La ricerca vocale non è solo per i dispositivi mobili, ma anche per la nostra vita quotidiana
Le prime fasi della ricerca vocale sono state innescate dall’adozione in continua espansione dei telefoni cellulari. Google Now, la precedente incarnazione dell'Assistente, è stato lanciato nel 2012 e Siri è stato lanciato ancora prima, nel 2011. La situazione è cambiata con l'introduzione di Alexa nel 2014. L'assistente digitale ora viveva in un componente hardware progettato per non uscire mai di casa.
Gli assistenti digitali ora sono integrati in un’ampia gamma di dispositivi, dai telefoni agli orologi, dai televisori alle automobili. Le persone possono ora interagire con loro in una gamma più ampia di situazioni. Ma il modo in cui interagiamo con l'assistente è ovviamente radicalmente diverso dalla solita interfaccia testuale dei motori di ricerca.
In che modo la ricerca vocale è diversa dalla ricerca basata su testo
- Query più complesse e più lunghe. Il riconoscimento vocale si è evoluto molto negli ultimi anni e ora consente query più complesse rispetto a pochi anni fa. Ciò spinge l'utente a utilizzare un linguaggio più naturale per le proprie query e comandi.
- Altre domande. Secondo una ricerca di seoClarity , oltre il 15% delle ricerche vocali inizia con come, cosa, dove, quando, perché e chi. Ciò è dovuto alla diversa interfaccia rispetto a un motore di ricerca basato su testo.
- Risposte brevi e concise. Anche se l'utente può utilizzare query più lunghe per esprimere ciò che vuole che l'assistente faccia o cerchi, le persone si aspettano risposte brevi e chiare.
- Nessuna gerarchia delle informazioni visive. Siamo abituati a utilizzare e rilevare segnali visivi per organizzare i contenuti ed evidenziare gli aspetti più importanti di ciò che vogliamo trasmettere all'utente. Il contenuto di una landing page dovrebbe essere ripensato per interfacce solo vocali per identificare cosa evidenziare e come farlo senza i segnali visivi consentiti da un browser.
- Il vincitore prende tutto. Quando utilizzi un motore di ricerca puoi scorrere i risultati della ricerca e, anche se raramente raggiungerai la seconda pagina della SERP, potresti fare clic su un collegamento sotto i primi tre risultati principali. In un'interfaccia vocale, le persone non ottengono una pagina di risultati da cui possono scegliere dove andare. L'assistente digitale restituirà un solo risultato.
- Ricerca locale. Considerando che tra il 30 e il 40% delle ricerche da mobile sono query locali, possiamo aspettarci anche che un’alta percentuale di query nella ricerca vocale richieda risultati locali.
Ricerca di parole chiave per la ricerca vocale
La differenza principale nel fare ricerca di parole chiave per la voce invece che per il testo è che utilizzerai parole chiave in un linguaggio molto più naturale. Il modo in cui parliamo è completamente diverso dal modo in cui digitiamo. Usiamo frasi naturali invece di una breve stringa di parole chiave.
Per scoprire quali parole chiave scegliere come target, dobbiamo utilizzare uno strumento di ricerca di parole chiave semantiche. Rispondere al pubblico è lo strumento più utilizzato in questi casi. Inserisci la tua parola chiave seed e otterrai un elenco di domande con quella parola chiave. I dati vengono presentati prima in un grafico, che è carino, ma non molto utile. Fortunatamente, puoi scaricare i dati in un pratico CSV.
Lo strumento di ricerca per parole chiave di Twinword ha anche alcuni filtri utili per estrarre idee per le parole chiave. Puoi filtrare i risultati per intento di ricerca e per pattern di parole chiave, il che ti consentirà di vedere solo le domande che includono la tua parola chiave seed.
Puoi anche prendere nota dello snippet "Le persone chiedono anche" nella Ricerca Google per scoprire più opportunità di parole chiave.
Se disponi di un call center o di una chat dal vivo o di una funzione chatbot, estrai i dati di tali conversazioni per trovare le domande più frequenti.
Domande "vicino a me".
Poiché le query locali rappresentano una quota importante della ricerca vocale, puoi aspettarti che molte query terminino con la frase “vicino a me”. Come in: "qual è il miglior sushi vicino a me" o "qual è la migliore palestra vicino a me". Come ottimizzare per questo? Le imprese locali dovrebbero avere i propri dati aggiornati in directory come Yelp, siti di recensioni come Tripadvisor e servizi come Kayak. Per gli editori, i dati strutturati sono la risposta.
Come ottimizzare i tuoi contenuti per la ricerca vocale
Ottimizza il tuo sito per i dispositivi mobili
La maggior parte delle ottimizzazioni che dovresti apportare al tuo sito per assicurarti che funzioni bene nella ricerca mobile saranno utili anche per il posizionamento nella ricerca vocale. Uno dei fattori più importanti è la velocità del sito. Che l'interfaccia sia vocale o mobile, le persone si aspettano risultati rapidi.
Utilizza AMP e dati strutturati
I dati strutturati sono fondamentali per aiutare Google a comprendere e analizzare meglio i tuoi contenuti in modo che possa fornire meglio al tuo pubblico le risposte che sta cercando. Puoi aiutare Google a identificare persone, organizzazioni, eventi, ricette, prodotti, luoghi.
AMP sta per Accelerated Mobile Pages. È un progetto open source lanciato da Google che limita la funzionalità delle pagine web per aumentarne notevolmente la velocità. AMP viene spesso utilizzato con dati strutturati, poiché è ciò che consente alle pagine AMP di essere presenti nei risultati avanzati nella pagina dei risultati di ricerca.
Inoltre, per gli editori, visualizzare i tuoi contenuti tramite il formato AMP con dati strutturati è uno dei requisiti per creare un'azione per l'Assistente Google .
Esiste uno schema di dati strutturati chiamato "speakable" , attualmente in versione beta, che identifica le sezioni di un articolo adatte alla riproduzione da testo a voce. I contenuti contrassegnati con questo schema verranno identificati dall'Assistente Google come contenuti che possono essere letti tramite un dispositivo abilitato all'Assistente Google. Il contenuto viene attribuito alla fonte e l'URL viene inviato al dispositivo mobile dell'utente.
Questo schema di dati strutturati è disponibile solo per gli utenti di lingua inglese negli Stati Uniti, tramite gli editori presenti in Google News.
Rispondi in modo conciso alle domande degli utenti
Secondo una ricerca di Backlinko , il tipico risultato di una ricerca vocale è lungo solo 29 parole, ma il conteggio delle parole di una pagina di risultati di ricerca vocale è di 2.312 parole. Ciò non è contraddittorio. Nel primo caso si tratta dell'assistente digitale che risponde ad una domanda o quesito specifico. Nel secondo caso, il conteggio delle parole si riferisce alla fonte della risposta. Non è chiaro se Google preferisca i contenuti di lunga durata come marchio di qualità o se è semplicemente che più contenuti significano più possibilità che una pagina venga utilizzata come risposta a una query.
In ogni caso, ciò che queste due statistiche combinate ci dicono è che dobbiamo pensare alla struttura dei nostri contenuti in modo da affrontare le idee principali e i punti chiave in paragrafi brevi che possano essere rilevati da un assistente vocale.
Scrivi contenuti facili da leggere e comprendere
Se desideri che i tuoi contenuti vengano utilizzati nell'interazione vocale, devono essere facili da leggere e, soprattutto, facili da comprendere per i tuoi lettori. Ricorda che gli utenti non saranno in grado di utilizzare segnali visivi o elementi per comprendere meglio i tuoi contenuti, come titoli o grafici.
Ricorda che la maggior parte delle domande verranno eseguite utilizzando il linguaggio vocale naturale, come se stessero avendo una conversazione. Tienilo a mente quando sviluppi i tuoi contenuti e scrivi in modo colloquiale quando rispondi a domande specifiche.
Punta a un rango elevato e a snippet in primo piano
Questo è un caso di correlazione e non di causalità. Ma ci sono prove, come analizzato da Backlinko nella ricerca sui risultati vocali in Google Assistant, che oltre il 75% dei risultati della ricerca vocale provengono dalle prime tre posizioni nella SERP e che il 40% proviene da uno snippet in primo piano.
Questa è solo un'ulteriore prova del fatto che Google Assistant e altri assistenti vocali digitali preferiranno risultati altamente autorevoli per garantire che soddisfino la domanda dell'utente alla prima risposta.
Poiché gli snippet in primo piano sono già risposte brevi a domande specifiche, è logico che l'Assistente li utilizzi.
Ciò significa che i tuoi sforzi di ottimizzazione per la ricerca Google avranno un impatto misurabile anche sul modo in cui i tuoi contenuti verranno utilizzati da un assistente vocale digitale.
Analizza e rispondi alle intenzioni dell'utente
Identifica qual è l'intento dell'utente per cui stai fornendo i contenuti. È possibile rispondere a tre intenti principali dell'utente tramite la ricerca vocale. Il primo è ottenere informazioni: di cosa si tratta? come faccio a farlo?. La seconda è la navigazione: dov'è questo?. E il terzo e ultimo intento è agire: prenotare un tavolo al ristorante, comprare un paio di scarpe, farsi la lista di tutti i concerti musicali in programma questo fine settimana.
L'Oreal ha implementato una strategia di contenuto basata sulla risposta alle domande "Come fare per" . La loro ricerca mostra che è ciò che i loro utenti cercano utilizzando le query di ricerca vocale.
Costruisci la tua fiducia e autorità
Come abbiamo visto, la ricerca vocale è un gioco in cui il vincitore prende tutto. Un assistente vocale digitale non visualizzerà un elenco di risultati ma fornirà invece direttamente una risposta da tali risultati di ricerca. Poiché possono fornire un solo risultato, è logico che tendano a favorire i risultati provenienti da domini con autorità elevata, anche se potrebbero non essere il risultato principale per quella query.
La SEO locale è fondamentale per la ricerca vocale
Un volume elevato di query di ricerca vocale riguarda i risultati locali. Ottimizzare per le query SEO locali non è tanto questione di sfornare contenuti con parole chiave locali quanto di mantenere una presenza sana e aggiornata su determinati servizi e directory. Ad esempio, le attività commerciali locali dovrebbero rivendicare la propria scheda su Google My Business , Bing Places for Business e Apple Maps Connect . Sarai quindi in grado di avere un maggiore grado di controllo sulle informazioni raccolte da Google Assistant, Alexa, Cortana e Siri, che utilizza anche dati e recensioni di Yelp.
Gli editori (e anche le imprese locali) possono implementare dati strutturati per evidenziare elementi locali nei loro contenuti, come fanno Yelp e Ticketmaster per le loro recensioni ed eventi. Crea Google Actions o Alexa Skill per consentire agli utenti di interagire con i tuoi contenuti
Tutti i principali assistenti vocali digitali consentono la creazione di app vocali per consentire agli utenti di interagire con i tuoi contenuti tramite gli assistenti.
Google va un po' oltre e crea automaticamente azioni per i tuoi contenuti in base ai dati strutturati del tuo sito web. Quando ciò accade, il proprietario del tuo sito, come specificato nei dati di Google Search Console, riceverà un'email. Quindi puoi rivendicare la tua azione o disabilitarla.
Ad esempio, Google creerà un'azione per i podcast basata sul loro feed RSS che consentirà agli utenti di trovare e riprodurre episodi sui propri dispositivi tramite l'Assistente. Anche le guide pratiche, le domande frequenti e le ricette utilizzano il markup dei dati strutturati per generare automaticamente azioni.
Contenuti dei nostri partner
Per gli editori di notizie, devi essere già incluso in Google News e utilizzare AMP e dati strutturati nei tuoi articoli per poter generare automaticamente un'azione.
Gli editori hanno già iniziato a sviluppare partnership con Google per sviluppare azioni specializzate. Vogue ha lanciato una funzionalità nel 2017 in cui gli utenti potevano interagire con la pubblicazione in Google Home per ottenere maggiori informazioni su alcune storie, raccontate dagli stessi scrittori.
Altri editori, come Bloomberg o The Washington Post , hanno sviluppato Alexa Skill che consentono agli utenti di ascoltare riassunti quotidiani delle notizie più importanti della giornata.
Il Daily Mail è andato oltre, pubblicando l'intera edizione quotidiana su Alexa . Mentre altri editori registrano l'audio da soli, in questo caso il Daily Mail utilizza le funzionalità di sintesi vocale automatizzate di Alexa. Un'altra differenza è che in questo caso il Daily Mail rende questa funzionalità disponibile solo ai suoi attuali abbonati.
Puoi analizzare l'impatto della ricerca vocale?
La risposta breve è no. Non ancora, almeno. Anche se Google afferma almeno dal 2016 di voler includere l'analisi della ricerca vocale in Google Search Console, il fatto è che, ad oggi, non c'è modo di analizzare le query e i risultati della ricerca vocale.
Esistono alcune sfide che impediscono a Google e ad altri fornitori di analisi di fornire questa funzionalità:
- Il primo è che le query in linguaggio naturale tendono ad essere più lunghe delle query basate su parole chiave. E le persone formuleranno essenzialmente la stessa domanda utilizzando parole o costruzioni di frasi diverse. Ciò significa che la stessa query avrà molte variazioni a basso volume, il che rende difficile analizzare ed estrarre informazioni significative.
- La seconda sfida è che le query di ricerca vocale sono spesso concatenate insieme, come in una conversazione. Ad esempio, puoi chiedere a un assistente vocale digitale: "Chi è Stephen Curry?". L'assistente restituirà un riepilogo dei risultati delle stelle NBA. Puoi chiedere loro "Quanto è alto?" E l'assistente saprà che ti riferisci a Stephen Curry. Il problema diventa più complicato quando ti rendi conto che entrambe le domande potrebbero ricevere risposta dall'assistente utilizzando due diverse fonti di contenuto.
Qualsiasi funzionalità di analisi della ricerca vocale deve tenere conto sia delle sfide che di:
- Fornire un modo per raggruppare query simili, offrendo allo stesso tempo agli analisti la libertà di esplorare quali sono queste variazioni, per comprendere meglio la lingua dell'utente.
- Mostra alberi di conversazione per capire come gli utenti navigano tra le informazioni e quali query li mantengono nei nostri contenuti e quali determinano la risposta alla query con contenuti di altri siti.
Gli editori che desiderano capire in che modo la ricerca vocale sta influenzando la loro presenza online potrebbero iniziare analizzando le query che portano le persone sul tuo sito e cercando query più lunghe e più colloquiali, nonché query formulate come domande.
Potresti anche condurre test con diversi assistenti vocali digitali per verificare quali fonti utilizzano per le loro risposte (gli assistenti vocali iniziano le loro risposte con "secondo...") e come ciò è correlato alle SERP sulla ricerca di Google.
La ricerca vocale è già il nostro presente
Il cambiamento nelle abitudini dei consumatori e il ruolo crescente che i dispositivi intelligenti e gli assistenti digitali svolgono nella nostra vita quotidiana fanno sì che la ricerca vocale non sia una cosa del futuro. È già un presente con cui dobbiamo fare i conti.
Gli editori devono tenere conto del cambiamento dell'interfaccia da testo e riferimenti visivi a solo voce. È un cambiamento che cambia il modo in cui le persone accedono e consumano i nostri contenuti. La mancanza di analisi affidabili per comprendere le prestazioni della ricerca vocale rende questo obiettivo difficile da raggiungere. Ma, come per qualsiasi altro aspetto della ricerca, tutto si riduce a sviluppare la fiducia del tuo pubblico attraverso contenuti autorevoli e di alta qualità.