L’interview de Bruno Patino pour le GESTE

BRUNO PATINO

Bruno Patino est président d’Arte et professeur associé à Sciences Po. Essayiste reconnu, il a occupé de nombreuses fonctions de direction dans les médias et l’audiovisuel public. Il a notamment été correspondant du Monde au Chili, président du Monde interactif (2000–2008), président de Télérama, vice-président du groupe Le Monde, directeur de France Culture, puis directeur général chargé des programmes, de la stratégie et du numérique à France Télévisions, avant de rejoindre Arte France comme directeur éditorial.

Il a été nommé président du comité de pilotage des États généraux de l’information (EGI) et a également fait partie des cinq experts désignés par le ministère de la Culture en 2023 pour travailler sur l’impact de l’intelligence artificielle dans le secteur culturel, en lien avec le comité interministériel sur l’IA generative.

Il est l’auteur de plusieurs ouvrages consacrés aux médias et au numérique, dont, La civilisation du poisson rouge (Grasset, 2019), S’informer, à quoi bon ? (Collection ALT, La Martinière, 2023), Submersion (Grasset, 2023) et Rire avec le diable (Grasset, 2024).

Vous distinguez clairement le média, en tant qu’acteur économique, et l’information, en tant que bien commun. Pourquoi vous semble-t-il important de faire cette distinction ? Comment pourrait-elle se traduire concrètement dans les politiques publiques ?

C’est une distinction absolument centrale. Les médias sont des acteurs économiques, ils peuvent participer à un modèle concurrentiel classique. L’information, elle, n’est pas un produit comme les autres : c’est un bien public ainsi qu’un bien commun.

C’est ce qui fait vivre le débat public, ce qui garantit la démocratie. Et c’est précisément pour ça que l’action publique ne peut pas être indifférente.

Si on part de cette distinction, alors on comprend qu’il ne s’agit pas simplement de sauver des entreprises de presse, mais bien de garantir à chacun un accès à une information fiable, indépendante, pluraliste. Et ça, ça suppose de repenser les soutiens publics : il faut les orienter non pas vers la survie d’un modèle économique hérité, mais vers les finalités civiques de l’information.

Ça peut prendre plusieurs formes : un soutien financier repensé, des statuts spécifiques (comme celui de société à mission appliqué à la presse) pour inscrire les objectifs d’intérêt général en matière d’information dans les statuts, ce qui renforcerait la gouvernance en donnant du pouvoir à la fois aux rédactions et aux citoyens, et assurerait une plus grande transparence sur les engagements éditoriaux. Les médias assumant ainsi une mission d’information pourraient être davantage soutenus (attributions d’aides, allègements de charges) en contrepartie de ces obligations.   

L’un des constats des EGI est la dégradation du rapport de confiance entre citoyens, journalistes et éditeurs. Quel rôle l’intelligence artificielle peut-elle jouer : aggravation de la crise ou opportunité pour redéfinir un contrat de confiance ?

On sent bien que le lien de confiance entre les citoyens, les journalistes et les éditeurs s’est distendu. Et l’irruption de l’IA, avec sa capacité à générer du texte à très grande échelle, de manière statistique, sans contrôle sur la véracité, peut, de toute évidence, accentuer cette crise.

Mais ce n’est pas une fatalité. L’IA n’est pas bonne ou mauvaise en soi, tout dépend de l’usage qu’on en fait et du cadre dans lequel on l’inscrit. Si on s’en sert pour inonder l’espace public de contenus approximatifs ou biaisés, elle devient un facteur de chaos. Mais si on l’oriente vers la qualité, si on entraîne les modèles sur des bases solides, si on rend visibles les sources, si on informe le public des usages de l’IA, alors elle peut, au contraire, contribuer à reconstruire un lien de confiance.

Moi je crois qu’il faut faire entrer les médias dans la boucle : les associer au développement des outils, les utiliser comme sources d’entraînement, créer des labels ou des indicateurs de fiabilité,… en tout cas faire en sorte que les IA deviennent des relais d’un journalisme de qualité, et non ses fossoyeurs. Et ça, ça suppose une vraie volonté politique, des règles du jeu claires, et un effort massif d’éducation aux médias.

La proposition d’un fléchage publicitaire fondé sur une “responsabilité démocratique” des annonceurs a été très soutenue par les différents syndicats et organisations professionnelles lors des EGI. Pensez-vous que cette approche incitative soit suffisante pour rééquilibrer durablement le financement de l’information ?

C’est une idée intéressante, et je dirais même nécessaire. Il faut encourager les annonceurs à prendre leurs responsabilités, à soutenir les médias d’information, un peu comme on a pu le faire avec la RSE dans d’autres secteurs. Dire à une entreprise : « Vous avez une part de votre communication qui peut renforcer le pluralisme, contribuer à la démocratie », ce n’est pas une contrainte, c’est une opportunité.

Mais soyons lucides : cela ne suffira pas. L’ampleur du déséquilibre est telle que l’approche purement incitative a ses limites. Il faudra, à un moment, aller vers des mécanismes plus contraignants, notamment vis-à-vis des grandes plateformes. Instaurer une contribution spécifique sur la publicité digitale, orientée vers l’écosystème de l’information, pourrait être une étape structurante. Et au fond, c’est même une question de justice économique : l’information produit de la valeur, elle doit être rémunérée à la hauteur de cette valeur.

Vous soulignez que l’intelligence artificielle fait basculer les contenus d’un modèle d’exposition vers un modèle de contribution. Pourtant, les droits voisins, pensés pour l’exposition, peinent déjà à s’appliquer efficacement. Comment construire un cadre juridique réellement opérationnel pour l’IA, alors même que le modèle existant montre ses limites dans un environnement bien plus simple ? Quelles conditions seraient nécessaires pour qu’une monétisation juste (ou du moins suffisante) soit possible, notamment pour les éditeurs de contenus et en particulier pour les médias d’information ?

Clairement, le modèle actuel n’est pas à la hauteur. On est dans un système où chacun négocie dans son coin, avec des géants de la tech. Résultat : seuls les plus gros médias parviennent à tirer leur épingle du jeu, les autres restent sur le quai. Et ça, c’est un problème pour la pluralité, pour l’équilibre global de l’écosystème.

Il faut sortir de cette logique bilatérale. Ce que je propose, c’est un cadre collectif de négociation, comme on l’a fait dans la musique. Une licence légale qui permettrait aux IA d’utiliser les contenus journalistiques contre rémunération, avec une gestion collective de ces droits, et une répartition équitable entre les contributeurs. C’est une voie exigeante, mais réaliste, à condition qu’elle soit pensée à l’échelle européenne, parce que c’est là que se joue la bataille.

Il ne s’agit pas seulement de compenser une perte, mais de construire un modèle pérenne, où l’IA devient une opportunité économique et non une menace.

Faut-il aujourd’hui repenser la manière dont l’information est distribuée, en posant une obligation d’affichage des médias professionnels ?

Oui. On ne peut pas continuer à laisser les logiques algorithmiques invisibiliser certains contenus sans aucune régulation. Aujourd’hui, une immense partie du public accède à l’information par des flux automatisés. Et dans ces flux, les médias professionnels peuvent disparaître du jour au lendemain, sans que personne ne sache pourquoi.

Imposer une obligation d’affichage, c’est dire : l’information d’intérêt général doit rester visible, accessible. C’est aussi une manière de réaffirmer un principe de souveraineté : il n’y a pas d’indépendance éditoriale sans maîtrise des outils de distribution. Et cette obligation, elle doit être portée à l’échelle européenne, car aucun État seul ne peut tenir tête aux plateformes.

Mais attention, il ne s’agit pas de figer l’offre. Il faut aussi donner au citoyen la capacité de choisir ses sources, d’aller vers l’information de manière active. On doit combiner le « push » algorithmique avec du « pull » conscient, et remettre l’intention dans la circulation de l’information.

La notion de média professionnel est au cœur de nombreux enjeux (fléchage, rémunération IA, obligation d’affichage), mais elle reste difficile à définir, que ce soit au niveau national ou européen. Selon vous, comment peut-on poser des critères clairs sans exclure ou fragiliser certains acteurs ?

C’est une question cruciale, et délicate. Il faut des critères, sinon on ouvre la porte à tous les abus. Mais il faut que ces critères soient suffisamment souples pour ne pas exclure des acteurs utiles, parfois innovants, souvent fragiles.

D’abord, il y a la question de la professionnalisation : un média qui emploie des journalistes, qui produit de l’information de manière régulière, c’est déjà un bon indicateur. Ensuite, la déontologie : adhésion à des principes éthiques, transparence sur les financements, existence d’un organe de gouvernance. Enfin, la finalité : est-ce qu’on cherche à informer ? à contribuer au débat public ?

Il ne faut pas que ce soit l’État qui décide seul. Il faut que ce soit co-construit avec les professionnels eux-mêmes, avec les citoyens, dans une logique de co-régulation. L’objectif, c’est de tracer une ligne claire entre ce qui relève du journalisme et ce qui ne relève que de la communication ou de la manipulation.

Les systèmes de RAG génèrent des réponses à partir de contenus consultés en temps réel, sans forcément les reproduire directement ou alimenter les modèles. Ce type d’usage entre-t-il selon vous dans le périmètre du TDM tel que défini par la directive droit d’auteur ? Le simple mécanisme d’opt-out vous semble-t-il suffisant pour protéger les éditeurs ?

Oui, ces systèmes relèvent bien du TDM. Même s’ils ne copient pas les textes mot pour mot, ils vont chercher des informations dans les contenus pour générer une réponse. Ils exploitent la matière première journalistique, et à ce titre, ils devraient être encadrés par les règles du text and data mining, telles qu’elles existent aujourd’hui dans le droit européen.

Le problème, c’est que le mécanisme d’opt-out, qui consiste à se déclarer opposé à l’exploitation de ses contenus, est trop faible. Il suppose que chaque éditeur mette en place des barrières techniques, qu’il s’équipe juridiquement… et ce n’est pas à la portée de tous. Surtout, ça crée une situation absurde : si trop de médias se retirent, les IA s’appuient sur des contenus de moindre qualité. Si personne ne se retire, alors l’exploitation se fait sans contrepartie.

C’est pour ça qu’il faut changer d’approche. Ce qu’on propose, c’est de passer d’un système défensif à un cadre régulé, collectif, transparent. Une licence légale ou un accord sectoriel à l’échelle européenne, qui permettrait aux IA d’accéder aux contenus en contrepartie d’une rémunération équitable. On sortirait enfin du bricolage, pour organiser un vrai équilibre entre innovation et droits des créateurs d’information.

Selon vous, comment les médias peuvent-ils suivre l’évolution des usages liés à l’IA, innover sans la subir, et préserver un modèle économique viable ? et/ou Comment imaginez-vous le paysage médiatique dans dix ans ?

Je pense que les médias doivent arrêter de subir les transformations technologiques. Il faut prendre l’IA à bras-le-corps. Pas pour tout bouleverser, pas pour remplacer les journalistes, mais pour intégrer cette technologie dans leurs usages, dans leurs rédactions, dans leur fonctionnement. Ça veut dire former les équipes, recruter des profils techniques, construire des outils maison, en lien avec les valeurs du journalisme. Il ne faut pas laisser les plateformes définir seules l’environnement informationnel de demain. Si on veut que la ligne éditoriale garde du sens, il faut maîtriser la technologie qui la porte.

Et puis il y a une autre chose très importante : c’est la diversité. On ne peut pas laisser les IA enfermer les citoyens dans des bulles. L’assistant d’information de demain ne peut pas être un miroir, il doit être une ouverture. Cela suppose de garantir le pluralisme, de défendre la diversité des points de vue, et d’imposer une certaine transparence dans les recommandations.

Sur le modèle économique, il faudra être créatif. Diversifier les ressources : abonnements, publicité responsable, contributions des plateformes, soutien public, mécénat. On est dans une logique similaire à celle de la culture. L’information d’intérêt général mérite un écosystème robuste et diversifié.

Et dans dix ans ? En 2035, Si tout se passe bien, je vois un paysage médiatique très numérique, bien sûr, mais avec plus d’humanité. Les journalistes auront recentré leur mission sur l’enquête, l’analyse, la pédagogie. Les médias qui tiendront seront ceux qui auront su faire de l’IA une alliée, sans jamais abandonner leur responsabilité éthique. Le risque, évidemment, c’est l’éclatement de l’espace public. Mais ce risque, on peut le contenir, à condition d’agir maintenant 😊