12 Sep Commission Classifieds – 12 juillet 2017
Les agrégateurs/crawlers, dangers pour les éditeurs de contenus, avec Jérôme Ponsin, Car&Boat Média. – Quels outils de protection ? Comment monétiser la data récupérée, avec Fabien Grenier, DataDome.
– Actualité juridique : la Proposition de Règlement ePrivacy.
Edition 2016
Commission présidée par Jérôme Ponsin, COO, Car&Boat Media.
Différents types d‘acteurs sont en présence sur le « marché » du crawl :
–Les manipulateurs de données ; – Les fraudeurs qui crawlent des données personnelles pour venir spamer et monter des arnaques à grande échelle. Ils génèrent de faux contacts et se font passer pour des acheteurs pour venir récupérer les annonces les plus fraiches;
– Les démarcheurs qui crawlent des données personnelles pour vendre des services, des assurances par exemple
–Les études menées à des fins propres
Les sociétés d‘études et de revente de données repackagées et agrégées – Les agrégateurs d‘annonces, internationaux ou locaux, spécialisés ou généralistes.
Les agrégateurs fonctionnent selon plusieurs étapes :
– Etape 1: construction du contenu par « srapping » ou « feed, construction d‘audience et génération de revenus publicitaires
–Etape 2 : délestés de toutes les problématiques que rencontrent les éditeurs pour produire du contenu, ils se concentrent sur le revenu et la techno. Ils arrivent parfois à créer une expérience de recherche meilleure que celle des éditeurs ce qui renforce encore leur audience. Ils font payer le trafic (pay per clic, ...) – Etape 3 : une fois qu‘ils ont une audience dominante et que les partenaires sont sous infusion, les agrégateurs renforcent leur marque afin de diminuer la dépendance au search et ils démarchent des clients en direct.
La situation est donc complètement déséquilibrée. En effet, les éditeurs ont travaillé en amont sur le contenu alors que les crawlers se contentent de récupérer en automatique le contenu formaté en aval de la chaîne.
Les agrégateurs ont donc une audience massive. A titre d‘exemple, Indeed représente 300 millions de visiteurs dans le monde, Mitila Group est présent dans 49 pays et représente 80 millions de visites par mois. Que faire face à cette problématique ?
– Prendre conscience que les méta–moteurs sont dangereux et que la data est la valeur de demain.
– Réagir grâce à 3 réponses potentielles : avoir une expérience utilisateur optimale, étudier les réponses juridique et technologique.
Côté réponse technologique, quatre briques doivent être montées: la captation, la détection/analyse, la classification et l‘action (capcha, blocage, flooding)
Consulter la présentation Quels outils de protection ? Comment monétiser la data récupérée avec Fabien Grenier, CEO, DataDome.
« Aujourd‘hui, la valeur des éditeurs, producteurs de contenus, est captée par des crawlers« , explique Fabien Grenier. « Cette data a énormément de valeur et la plupart des entreprises françaises de classifieds. Le principe du machine learning est simple : la data en est le carburant, ce qui est une bonne nouvelle pour les éditeurs et constitue de nouvelles opportunités
« Il s‘agit avant tout de comprendre le trafic automatisé qui peut représenter jusqu‘à 65/70% du trafic
« L‘enjeu pour DataDome est de collecter toutes les datas relatives au trafic entrant pour distinguer les êtres humains des robots. Pour ces derniers, il s‘agit de comprendre leurs intentions » précise Fabien Grenier. « Les enjeux économiques sont tels que la plupart des robots sont extrêmement sophistiqués et sont quasiment indétectables
« DataDome encourage et accompagne les éditeurs pour qu‘ils puissent prendre conscience des différentes entreprises présentes et définir les items qui les intéressent afin de les structurer dans une base de données dédiée à ces nouveaux usages. Ainsi, l‘éditeur maîtrise toute la chaine et a la possibilité de générer de nouvelles lignes de revenus assez rapidement »
« La data étant aujourd‘hui massivement volée, l‘enjeu est dans le management du trafic automatisé car si on a la capacité de classer ces acteurs on est en mesure de trouver la réponse appropriée » ajoute Fabien Grenier.
A titre d‘exemple, en 2015 un contentieux a opposé Opodo à Ryanair. Ryanair, qui souhaite commercialiser ses vols directement et sans intermédiaire sur son site internet, avait constaté qu‘Opodo scannait quotidiennement le contenu de son site et le réutilisait pour vendre les vols Ryanair augmentés de divers frais et commissions. Au niveau français, la chambre commerciale de la Cour de cassation a estimé que la contrefaçon de marque n‘était pas caractérisée.
La CJUE aurait quant à elle donne raison à Ryanair qui a modifié ses CGUs et ajouté une clause prévoyant que le crawl est interdit sur son site offrant ainsi un levier juridique si un robot est détecté.
Actualité juridique : la Proposition de Règlement e Privacy.
Le règlement général relatif à la protection des données personnelles (RGPD) adopté le 27 avril 2016 entrera en vigueur à compter du 25 mai 2018 et sera d‘application directe dans les 28 Etats membres, sans qu‘un texte de transposition national ne soit nécessaire.
La Proposition de Règlement ePrivacy présentée le 10 janvier dernier par la Commission européenne prévoit une entrée en vigueur concomitante des deux textes.
Ce texte comprend des points très problématiques pour les éditeurs, parmi lesquels, le recueil du consentement relatif aux cookies et autres traceurs prévu au niveau du navigateur, tout en laissant néanmoins une seconde chance à l‘éditeur qui pourra à nouveau d‘adresser à l‘internaute lorsque ce dernier arrivera sur son site. En revanche, la version actuelle du texte ne donne aucune information sur la fac 1 dont cette « voie de retour » sera expliquée.
L‘UFMD et le GESTE ont alors mobilisé l‘ensemble des industries françaises du Numérique (+ 5000 entreprises) – éditeurs de contenus et de services en ligne, commerçants électroniques, annonceurs, régies publicitaires, agences média, agences de communication, réseaux publicitaires, fournisseurs de données et leur organisme d‘autoregulation professionnelle de la publicité – pour attirer l‘attention des pouvoirs publics sur l‘impact de la Proposition de Règlement sur leur modèle économique. Dans un CP publié le 7 juin l‘interprofession a ainsi souligné trois lacunes dans le règlement ePrivacy :
– Une approche contraire à celle édictée par le RGPD et inadaptée aux nouveaux usages en matière d‘internet.
–Un transfert de la protection de la vie privée des Européens vers des sociétés américaines. – Un risque important pour la compétitivité des entreprises européennes sans contrepartie pour la privacy.
L‘interprofession, qui s‘est intéressée plus particulièrement aux articles 8 à 10 de la Proposition de Règlement, a travaillé sur des projets d’amendements qui ont été transmis aux parlementaires européens ainsi qu‘aux pouvoirs publics français chargés de définir une position française.
Le vote de la Commission LIBE, saisie au fond, est attendu le 11 octobre prochain.
Il est à noter que les projets annoncés récemment comme Gravity pourraient être mis à mal si la Proposition de Règlement ePrivacy est adoptée en l‘état.
Par ailleurs, dès septembre, le GESTE va lancer un GT sur la thématique de l‘ID unique. Nous vous invitons à vous rapprocher de l‘équipe permanente si vous souhaitez participer à ces discussions.