Trust et Labellisation – 20 février 2019

Avec la participation de : 

Patrick Eveno 

Christophe Deloire 

Secrétaire General 

Universaire spécialiste de l’ h edas 

Florent Belt 

Frederke Filloux 

Fondateur 

 

La situation des citoyens vis-à-vis de l’information est de plus en plus critique. Une distanciation des citoyens par rapport aux médias d’information s’est creusée et a été accélérée par les technologies qui fragmentent les contenus et les audiences. 

Les médias se trouvent face à un problème de confiance des français dans l’information, dans le média, dans les journalistes. 

Quelles peuvent être les pistes? 

 

La mise en place d’un conseil de presse en France

 

Deux constats : 

-La confiance n’a jamais existé dans les médias et pourtant les médias sont essentiels. 

-Les fake news ne datent pas d’hier. 

Patrick Eveno, président de l’ODI milite pour la création d’un organisme indépendant. Ce conseil déontologique regrouperait des journalistes, des entreprises et les lecteurs autour d’une même table. Ce type d’instance est déjà présent dans 21 pays d’Europe. 

Ce conseil veillerait sur la déontologie de l’information et n’interviendrait pas sur la ligne éditoriale des rédactions. Celles-ci doivent rester libre. 

Le 11 octobre, l’ex-ministre de la culture a annoncé le lancement d’une mission en vue de la création d’un conseil de déontologie de la presse et des médias. La mission, confiée à Emmanuel Hoog vise à réunir les positions des professionnels intéressés afin de proposer un cadre dans lequel une telle instance de déontologie professionnelle pourrait être mise en place. 

Le projet Journalism Trust Initiative Au niveau macro il y a plusieurs constats : 

– Au niveau du droit international, les textes sur la liberté d’expression posent les principes généraux 

-Les garanties démocratiques sur l’information, posées sur le plan national, sont désormais balayées 

RSF a réuni une commission avec des acteurs internationaux afin d’éditer une déclaration internationale sur l’information et la démocratie, qui pose un certain nombre de principes pour les entités qui structurent l’espace de la communication et de l’information (transparence, neutralité politique…). Le 12 novembre, 12 chefs d’Etats et de gouvernements se sont engagés à signer un Pacte sur l’information et la démocratie sur la base de cette déclaration dans le délai d’un an. 

Au niveau micro : il faut créer des mécanismes pour favoriser l’information fiable La Journalism Trust Initiative a été lancée il y a un an. Il s’agit d’un travail collaboratif d’autoregulation qui vise apporter des garanties sur les processus éditoriaux à partir de standards (de mise en oeuvre des méthodes journalistiques, de respect des règles déontologiques, de transparence..) En employant l’ingénierie de la normalisation, il est possible de créer un mécanisme de tiers de confiance qui fournisse des indications aux algorithmes, aux annonceurs, aux organes de régulation, etc. 

RSF a lancé le projet, mais le référentiel (la norme) est issu d’un travail collaboratif des parties prenantes du journalisme (incluant les éditeurs). L’audit, ou la certification, sera laissée notamment au marché. Plus de 100 entités, d’Europe et d’au delà (de la Corée du sud aux Etats-Unis), grands médias, organisations, agences de presse, annonceurs, Google et Facebook, les gouvernements, Digital content next, W3C…. participent au processus à des titres divers. 

 

Le projet Trusted Out 

 

Problématique :

Seul le contenu dans lequel vous avez confiance, permet de prendre des décisions dans lesquelles vous pourrez avoir confiance. 

 

Risque:

Ne pas pouvoir avoir confiance dans ses outils analytiques ruine totalement l’investissement en temps et moyens et pire, prendre de mauvaises décisions stratégiques. 

 

Qui cela concerne:

Impératif pour la Business Intelligence, Brand Safety et PR analytics. Toutes les décisions stratégiques de votre entreprise. 

 

Solution:

La confiance étant personnelle, TrustedOut permet de définir tous les critères de sa confiance pour obtenir, live, le contenu permettant de prendre une décision de confiance. Ce contenu (Corpus) alimentera les outils d’analyse, securisera les marques au sein du périmètre de confiance et apportera de nouveaux insights sur les campagnes de RP et content marketing. 

 

Comment:

TrustedOut est une solution B2B, industrielle, opérée par Intelligence Artificielle pour profiler, en permanence, les médias par collection pour les données (trafic, organisation, revenu…) et classification pour le contenu (taxonomie, perception…) 

 

Quand:

Lancement prévu avant l’été. 

Plus d’information: trustedout.com/geste 

 

Le projet DeepNews La lutte contre les fake news est une cause perdue pour plusieurs raisons : 

-La volumétrie : chaque jour 100 millions de liens d’information de toute nature sont injectés sur le net. La moitié est en anglais. Même si 95% est redondant (copies, redites, plagiats), cela laisse 5 millions d’articles qui seraient quotidiennement candidats pour une vérification factuelle. Aujourd’hui, le fact-checking manuel est le moyen de plus sûr de rectifier une fausse information. Mais la capacité mondiale de traitement des fact-chekers n’est que de 2 ou 3000 articles vérifiés par mois, contre 5 millions d’articles nouveaux par jour. Autant dire que leur travail ne se voit pas même s’il reste absolument essentiel dans une démocratie. 

-La technologie va renforcer les fake-news: production toujours plus nombreuse et plus indécelable; capacités de ciblage infinies (pour les présidentielles américaines de 2020, les experts prédisent une avalanche de messages personnalisés pour chacun des 156 millions d’électeurs américains). Autre crainte : les deep fakes avec des vidéos quasi parfaites, qui mettront en scène des situations, des déclarations fausses, etc. 

-Un financement inépuisable issu d’états comme la Russie, la Chine, l’Iran, la Corée du Nord. Les milliards de dollars dépensés dans des campagnes électorales américaine vont aussi servir à la recherche et au développement des toutes sortes de manipulations de l’opinion sur les réseaux sociaux. 

Fort de ce constat, Deepnews.ai veut attaquer le problème de la mauvaise information par le biais de la détection de la qualité avec des algorithmes de deep learning. Le projet a été lancé à l’Université de Stanford en 2017. Aujourd’hui, le modèle principal est un réseau de neurones qui a été entrainé avec plusieurs centaines de milliers d’articles. Ceux-ci ont nourri un algorithme dont l’apprentissage a nécessité 1300 heures de calcul et une cinquantaine de versions. Lorsqu’un article lui est soumis, le modèle l’analyse en 0.1 sec. au travers d’un « tamis » composé de 25 millions de pondérations mathématiques. Ce modèle détecte la valeur ajoutée éditoriale, c’est-à dire le travail journalistique associé à un article: densité de l’information, diversité des sources, qualité rédactionnelle. 

Les applications sont multiples : 

-Un serveur de pubs peut par exemple repérer un articles de qualité pour servir des annonces premium et garantir une « brand safety » aux annonceurs. 

– Les systèmes de recommandation des éditeurs peuvent être calibrés pour faire remonter des articles à forte valeur ajoutée et non plus seulement des articles trouvés en fonction de mots-clés. 

Aujourd’hui, le système est en phase tests avec l’adjonction d’autres modèles plus simples qui vont renforcer les performances de l’ensemble. 

Pour l’heure, Deepnews.ai est appliqué sur des contenus en Anglais. Il pourrait être francisé en fonction des financements disponibles. 

Pour plus de détails: info@deepnews.ai