-

Voice search? Zorg dan voor structured data

Met de opkomst van voice search en de digital assistent is er ook via deze wegen behoefte aan een rijkere weergave van de zoekresultaten. Maar wat kan de Google Assistent op basis van structured data? Een antwoord op de vraag: is de nieuwe vorm van structured data voor voice search interessant? 

Voor zover we kunnen zien heeft Google structured data markup tot nu toe alleen gebruikt voor het weergeven van zogenaamde rich snippets, later omgedoopt tot rich cards. Dit zijn visueel uitgebreide zoekresultaten als review sterren en receptkaarten.

Content Actions voor podcasts, recepten en nieuws

Begin dit jaar heeft Google webmaster via mail en Search Console genotificeerd dat Content Actions zijn aangemaakt met de markup voor podcasts, recepten en nieuws. Als je podcasts, recepten of nieuwsartikelen dus de juiste markup hebben en als AMP beschikbaar zijn, maakt Google dus automatisch een Action aan. Deze kan je vinden in de Assistent Actions index. Hierdoor kunnen gebruikers van de Assistent deze content gebruiken.

Heb je zo’n notificatie gekregen? Dan kan je je Action claimen in de index. Mocht je niet willen dat er zo’n Action is, dan kan je deze natuurlijk ook verwijderen.

Alle informatie over deze specifieke Actions vind je op desbetreffende informatiepagina:

Ook hiermee wil Google haar gebruikers de mogelijkheid geven om bijvoorbeeld recepten via de Assistent te gebruiken. Daarom eist Google nu ook dat ingrediënten en instructies gemarkeerd zijn. Voor podcasts is RSS feed vereist. Verder is AMP is een voorwaarde voor de nieuws Action.

Een podcast afspelen via een spraakopdracht is ook handig. Maar om nou een compleet nieuwsbericht voor te laten lezen, dat is niet ideaal. Daar zou iemand iets op moeten verzinnen..

“He Google, wat is het nieuws rond Google Assistent en structured data?”

“Volgens de officiële Google Webmasters blog ondersteunt Google nu schema.org speakable structured data. Hiermee kan de Google Home assistent een korte samenvatting van een nieuwsartikel voorlezen zoals deze alinea.”

Bij de speakable property is het de bedoeling dat een deel van de content gemarkeerd wordt die geschikt is om in 20-30 seconden voor te lezen en het best de kern van het artikel bevat. Met “geschikt om voor te lezen” wordt bedoeld dat de tekst lekker moet lopen als de Assistent de tekst voorleest: geen datum en locatie of opsomming dus, maar een begrijpelijke alinea. Google beveelt dan ook aan om de tekst te herschrijven om aan deze richtlijnen te voldoen. Logischerwijs moet de speakable markup binnen een Article of Webpage object vallen. Zie ook de schema.org documentatie.

Voorbeeld van wat google assisten doet met speakable structured data

De Assistent leest maximaal drie verschillende stukjes voor. Luisterde je even niet, dan kan je vragen om het opnieuw af te spelen. De Assistent noemt de bron en het artikel van de voorgelezen samenvatting wordt naar de telefoon van de gebruiker gestuurd.

Spreekt dit mij aan?

Supercool natuurlijk, om dit mogelijk te maken. Helaas is het nog in bèta en alleen beschikbaar in de VS en in het Engels. Bovendien kom je alleen in aanmerking als je aangemeld bent als nieuwsplatform. Dit kan je zien in lijn van Googles inspanningen om meer nieuws en feiten van vertrouwde bronnen te tonen. Dat voorkomt een hoop fake news.

Deze functionaliteit is een mooie toevoeging voor de Assistent en een logische uitbreiding van het voorlezen van featured snippets. Ik reken erop dat deze functionaliteit blijft en hoop ik dat het snel beschikbaar zal worden in Nederland.

Ook het feit dat Google drie artikelen voorleest, vind ik (gematigd) positief. Mijn ‘glas-half-vol’ attitude ziet dit als een verbetering ten opzichte van het ene resultaat dat Google voorleest als je om het weer vraagt of een antwoord op een vraag zoekt. Natuurlijk had ik als SEO’er liever meerdere resultaten gezien, maar soit.

In de speakable documentatie wordt niet over AMP of de carrousel gerept. Er staat wel dat de speakable property binnen een Article object moet staan wat ook weer een vereiste is voor de nieuws Action. Op het Webmaster Forum vind je ook niks over speakable en AMP. Ik ga ervan uit dat Google de hoogst rankende nieuwsberichten over het onderwerp waarover je zoekt, opleest. Dat zal steeds vaker de nieuwscarrousel zijn. Kortom: zit je in de nieuws business, dan ontkom je niet aan AMP.

screenshot van Google Action voor mascotte Koentje Feyenoord

Media Actions

Sinds een maand kan je via Google zogeheten Media Actions uitvoeren. Denk aan het afspelen van video of het luisteren van muziek. Dit vervangt de eerdere Muziek en TV en Films documentatie. Er wordt ook gehint naar horecagerelateerde acties, maar daarover later meer.

Voorheen gebruikte Google structured data grotendeels om rich cards te tonen. Nu wordt structured data gebruikt om direct in de zoekresultaten media af te spelen. Een nog rijkere zoekervaring dus, zoals Google zou zeggen. Maar natuurlijk is dit vooral gedaan met het oog op Voice. Zo kan je namelijk direct video’s af laten spelen op een scherm dat gekoppeld is aan je Assistent.

Wil jij dat gebruikers direct video’s of muziek kunnen afspelen? Dan moet je je eerst aanmelden, want het is alleen beschikbaar voor partners.

JSON-LD data feed voor Media Actions

Om Media Actions te ondersteunen, moet je:

  • Deeplinks maken voor de content
  • Structured data markup toevoegen aan content en deeplinks
  • Structured data beschikbaar maken via een feed
Deeplinks voor content

Google gaat ervan uit dat een deeplink zorgt voor het afspelen van de content. Content moet dan ook automatisch afspelen  *facepalm* #deathtoautoplay

#deathtoautoplay

Structured data markup

Zowel de content (naam, artiest, album, episode, seizoen, oftewel het wie en wat) als de actie (de deeplink en de beschikbaarheidsinfo, oftewel het waar, wanneer en hoe) moet markup hebben. Gedetailleerde info voor tv en film, liedjes, artiesten en albums, mixes en radio vind je in de links.

Data feed

Voorheen werd alleen markup gebruikt die op de pagina stond. Wat uniek is aan deze Media Actions is dat Google voor het eerst een externe feed gaat gebruiken voor de structured data markup.

In deze JSON-LD feed geef je al je media-items op waarvoor je Media Actions wilt hebben. Elk item moet dus apart beschreven zijn en een eigen ID en url hebben. Let er ook even op dat je de feed moet verifiëren. Dit doe je via Search Console of in het robots.txt bestand. Loop ook even de Media Actions checklist na. De feed kan je checken met de Actions in Google validatietool voor gegevensfeeds.

NB: in de validatietool is ook een optie om een datafeed voor horeca acties te checken. We mogen dus Actions in die richting verwachten..

voorbeeld van de datafeed validatietool

Voice search komt eraan. Voice search wordt ook veel meer actiegericht gebruikt dan desktop search. Dus wil jij dat gebruikers jóúw content gaan gebruiken om die acties te voltooien? Dan zal je voor structured data moeten zorgen.

Dit bericht is 6 keer gedeeld

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond