01 Fév Assistants Vocaux – 1er février 2018
Keynote : Rand Hindi (Snips) / Table ronde avec : Hélène Maestripieri (Google), Pippa Rimmer (Radio France), Simon Regan (DMG media), Emmanuel Alix (L‘Equipe) et animée par Joel Ronez (Binge Audio).
« Notre perception de la technologie sera tellement intégrée qu‘on n‘y prêtera plus attention, personne ne se souciera de l‘existence de ces technologies. » Rand Hindi
L‘intelligence artificielle est le fait de reproduire un comportement humain dans une machine. Pour créer cette intelligence artificielle, différentes techniques sont utilisées dont le machine learning.
Qu‘est–ce que le machine learning ? Plutôt que de programmer la machine pour qu‘elle effectue un comportement, on va lui donner des exemples de comportement à reproduire et on va la laisser apprendre à les reproduire.
Il existe deux types d‘intelligence artificielle : l‘Al faible et l‘Al forte
Aujourd‘hui, 100% de l‘intelligence artificielle est dite faible, ou verticale. Ceci s‘explique par le fait que l‘intelligence humaine ne serait pas reproductible dans une machine. Les machines n‘ont pas la conscience de ce qu‘elles font. Cela les empêche de prendre de la perspective par rapport à leurs actions.
Pour démontrer ce point Rand Hindi expose le piège à voiture autonome. La voiture voit une ligne en pointillée et donc passe, une fois dans le cercle elle fait face à une ligne blanche, et reste coincée, car n‘a pas l‘autorisation de la couper. L‘humain peut prendre de la perspective et en fonction du contexte peut décider de franchir la ligne. L‘intelligence artificielle n‘est pas capable de faire ce jugement et ce changement de perspective.
Selon Rand Hindi, l‘intelligence artificielle, qui serait de niveau humaine, est de la science–fiction et n‘existera pas.
Afin de comprendre les requêtes des utilisateurs, les machines doivent créer du contexte, une image aussi fiable que possible de la vie d‘un individu en ayant accès à toutes ses informations.
Créer cette notion de contexte dans une machine est très compliqué et les assistants ont besoin d‘énormément de data pour pouvoir donner des réponses adéquates.
Aujourd‘hui il n‘y a pas que les assistants généralistes comme Google Home ou Alexa. On observe plutôt une spécialisation des assistants vocaux pour certains types de produit : machine à café, télé, voiture.
Il existe également un réel sujet sur la protection de la vie privée.
Avec le RGPD, dès qu‘une entreprise propose ses services à un résident de l‘UE, il doit être compliant. Mais comment gérer le consentement sur les enceintes vocales ? Des vraies questions se posent autour de la vie privée sur les assistants vocaux. Une des solutions pourrait être de ne pas envoyer la donnée dans le cloud. Des outils permettent de traiter la requête directement dans l‘objet, sans que la donnée ne soit envoyée à l‘extérieur.
Sur le machine learning nous vous conseillons le documentaire AlphaGo, de Greg Kohs.
Rand Hindi Fonder & CEO snips
Présentation d‘Hélène Maestripieri, Alexander Bregman et Lionel Mora, Google
Le mobile a changé le monde en moins de 10 ans. Le lancement de la plateforme Appstore a marqué le début la révolution du mobile. Le téléphone passe alors d‘une simple machine à une plateforme qui permet de connecter les services et les marques. L‘adoption des enceintes vocales intelligentes est encore plus rapide que l‘adoption des smartphones.
Sur Google, 70% des recherches se font en langage naturel : « quel temps fait–il aujourd‘hui ?». Il s‘agit d‘une tendance de fond. L‘assistant est aujourd‘hui disponible sur une multitude de machines et sous différentes formes : voix, texte ou image. Il est aujourd‘hui possible de montrer quelque chose à son Google Assistant. L‘utilisateur n‘a plus à s‘adapter à la machine mais c‘est à l‘assistant de s‘adapter.
Aujourd‘hui en France il existe deux options pour intégrer du contenu sur l‘assistant Google : le Narrative News, et les applications conversationnelles (Assistant Apps).
I/ Le Narrative news
Le Narrative news correspond au flash info à la demande. Il couvre trois types de requêtes : générales, liées à une catégorie ou liées à une source en particulier (Le Figaro, L‘Equipe ...)
Le narrative news est composé de podcasts diffusés via un flux RSS.
Pour toute demande de l‘utilisateur sur les dernières nouvelles/actualités, Google Assistant peut donner comme réponse :
– Un flux RSS par défaut pour chaque catégorie (généraliste, divertissement, économie...) –Un flux RSS de différentes sources/éditeurs présélectionnés par l‘utilisateur pour répondre à la requête « généraliste » du type « je veux écouter les dernières nouvelles« .
Sur le classement par défaut, plusieurs critères vont être pris en compte :
–La qualité des flux RSS, – Des flux régulièrement mis à jour (exemple : France Info rafraichit plusieurs fois par jour),
–Des podcasts assez courts, –Un jingle de l‘éditeur en introduction est aussi un critère de qualité.
L‘utilisateur peut personnaliser son flux d‘actualité avec l‘application Google Home.
2/ L‘Assistant Apps
« OK Google, je veux parler avec L‘Equipe... »
Permet de mettre en relation l‘utilisateur avec la marque.
L‘action conversationnelle nécessite le développement d‘une application Google Assistant.
L‘utilisateur doit invoquer l‘application par la voix pour avoir accès au service.
Différents outils existent pour créer une application assistant (Dialogflow: permet de créer l‘arborescence du chatbot, Witlingo, spoken layer, notify.io...). L‘application relève de l‘environnement propre de l‘éditeur (le ton, les contenus ...). L‘éditeur fait ses propres choix, Google Assistant ne permet que l‘accès à l‘application.
Pour lancer une application sur Google Assistant, il faut surtout travailler sur :
– La production de contenus interactifs, divertissants, engageants pour Google Assistant.
– Des usecases pour créer une véritable expérience pour les utilisateurs, et réfléchir à la personnalité souhaitée pour l‘application.
Concernant la monétisation : A date, sur l‘Assistant Apps, elle n‘est pas possible.
Sur Narrative News, l‘éditeur a la possibilité d‘intégrer des sponsoring ads ou native ads au sein du flux Narrative News, s‘il le désire.
Présentation de Pippa Rimmer, Radio France
Grâce aux assistants vocaux, la radio prend sa revanche. En effet, parmi les utilisateurs d‘enceintes connectées aux Etats–Unis, 65% déclarent écouter plus de musique et 20% déclarent écouter plus de podcast (NPR/Edison).
Radio France expérimente aujourd‘hui deux modes de diffusion :
Le flash briefing sur Google Home:
Radio France diffuse via le « narrative news » de l‘Assistant Google 26 contenus différents des chaînes franceinfo, France Inter, France Culture et France Bleu.
Les critères pour les flash briefings sont nécessairement des contenus :
– liés à l‘actualité,
en format court (en dessous de 5min). – rafraichis régulièrement (au moins une fois par jour).
A titre d‘exemple, le flash info de franceinfo est rafraichi quatre fois par heure. En conséquence, ce flash est proposé par défaut quand l‘utilisateur demande OK Google, quelles sont les actualités ? »
Le skill Alexa :
Selon Pippa Rimmer, construire un « skill >> consiste à transformer une interface graphique en interface vocale. En accédant à un skill, il est déconseillé de proposer plus de 4 options à l‘utilisateur. Il est donc nécessaire, pour l‘éditeur, de hiérarchiser ses fonctionnalités et ainsi de privilégier seulement les actions et les accès les plus pertinents.
Pour la chaine musicale Fip, Radio France a créé un skill permettant d‘avoir accès à la radio Fip ainsi que ses sept webradios thématiques. Ces 8 radios sont proposées dans une liste en 2 parties. Pour favoriser une écoute rapide, quand l‘utilisateur accède une seconde fois au skill, on lui demande d‘abord s‘il souhaite reprendre l’écoute de sa dernière radio écoutée.
Radio France prévoit d‘enrichir toujours plus cette expérience en permettant, par exemple, de demander le nom du morceau en cours ou de rajouter une chanson en favori.
Présentation de Simon Regan–Edwards, Daily Mail
A l‘arrivée d‘Alexa, le Daily Mail a dû se poser la question de la nécessité de l‘intégration, pour un éditeur print, de services sur l‘enceinte connectée d‘Amazon.
Le daily Mail Plus est la formule payante du Daily Mail en format digital.
En quelques chiffres :
–40k+ d‘abonnées pour un coût mensuel de f10.99 (12,30 euros). – Une large partie des audiences du Daily Mail Plus a plus de 65 ans.
Après avoir réussi la transition sur le digital, la suite logique pour le Daily Mail était de passer du texte à l‘audio.
Pourquoi Amazon ?
– L‘opportunité pour le Daily Mail d‘être présent dès le lancement de l‘enceinte au Royaume-Uni.
– L‘intégration d‘un SSO permettant de faire le lien avec le compte Daily Mail Plus des abonnées pour avoir accès aux contenus premium.
Daily Mail intègre plusieurs options sur Alexa :
–Un Flash briefing. –Le conversation action. – Un SSO liée au compte Daily Mail Plus donnant accès à tous les contenus disponible sur le Daily Mail (avec 14 jours d‘essai gratuit).
Le Daily Mail est le premier éditeur à publier tous ces contenus en version audio. Sur Alexa, l‘éditeur a fait part d‘un bon taux de transformation en formule payante après la période d‘essai.
Cependant, une question se pose toujours pour le Daily Mail : comment monétiser en dehors des souscriptions ?
Présentation d‘Emmanuel Alix, L‘Equipe
L‘Equipe avait déjà investi sur l‘audio. Les émissions TV sur la chaines l‘Equipe avaient été mises à disposition sous forme de podcasts.
L‘Equipe a par la suite lancé une série de podcast autour de thématiques comme le rugby ou, plus récemment, le golf.
L‘audio dispose de plusieurs avantages : il demande moins de moyens techniques (et financiers) que l‘audiovisuel, et est un format plus apprécié pour partager des histoires.
Sur les assistants vocaux, L‘Equipe est déjà présent depuis août sur le Google Home.
Sur les narrative news : l‘Equipe propose des flashs audio, produits en fin de journée.
Sur l‘assistant apps : l‘Equipe propose des flashs et des quiz.
Selon Emmanuel Alix, le Google Home est un accélérateur de production de contenu audio.
L‘Equipe va également se lancer prochainement sur Alexa.