Objectifs
La certification « Intégrer des techniques de datajournalisme dans la production d’information multicanale » atteste de la capacité d’un professionnel de l’information, du journalisme ou de la communication à exploiter des données numériques – ouvertes, structurées ou massives – pour concevoir des productions éditoriales contextualisées, multimédias et adaptées aux canaux numériques (web, mobile, réseaux sociaux, formats interactifs…).
Elle couvre l’ensemble des compétences nécessaires pour collecter, nettoyer, vérifier, analyser, visualiser et éditorialiser des jeux de données chiffrées ou textuelles, dans une démarche journalistique rigoureuse, sourcée, accessible et juridiquement responsable. Le candidat mobilise des outils open source, des méthodes statistiques, des techniques de visualisation interactive et des technologies d’intelligence artificielle (IA générative, NLP, classification, détection d’anomalies) pour automatiser, enrichir ou contextualiser le traitement de l’information, tout en conservant un regard critique sur leurs apports, leurs limites et leurs biais.
La certification s’inscrit pleinement dans les évolutions des pratiques éditoriales face à la massification des données, à l’automatisation des tâches de traitement et à l’exigence croissante de transparence et de vérifiabilité des sources. Elle répond aux nouveaux besoins des rédactions, agences, organisations ou indépendants qui souhaitent intégrer le datajournalisme comme levier d’enquête, d’analyse ou de narration augmentée.
L’intégration des données dans la chaîne de production suppose également la maîtrise des obligations réglementaires (RGPD, droit à l’image, droit d’auteur), des enjeux de responsabilité éditoriale (exactitude, traçabilité, lutte contre la désinformation), et des principes d’accessibilité des supports (navigation, lisibilité, multicanal).
Compétences attestées
Définir le périmètre éditorial d’un projet de datajournalisme en analysant le brief initial, en identifiant les contours thématiques, les objectifs et les contraintes, afin de sélectionner les sources pertinentes et de structurer une stratégie de collecte adaptée.
Collecter des données multi-sources en mobilisant des techniques de collecte automatisée (scraping, API, veille stratégique), y compris des outils d’intelligence artificielle, pour constituer une base structurée adaptée aux besoins d’investigation et d’analyse.
Nettoyer des jeux de données bruts ou semi-structurés en utilisant des outils open source (OpenRefine, Python/pandas) et des assistants IA de correction ou de documentation, de manière à garantir la qualité, la cohérence et la reproductibilité du jeu de données.
Vérifier la fiabilité des données utilisées en retraçant systématiquement leur origine (source, date, version), en croisant plusieurs sources indépendantes et en mobilisant des outils numériques ou automatisés d’aide à la vérification (fact-checking, recherche d’occurrence inversée, analyse sémantique), en vue de garantir l’exactitude, la transparence et la vérifiabilité de l’information produite.
Analyser des ensembles de données numériques en mobilisant des techniques exploratoires, statistiques ou algorithmiques (analyse descriptive, NLP, clustering…), en s’appuyant sur des outils d’intelligence artificielle, pour faire émerger des tendances, des anomalies ou des signaux faibles exploitables dans un traitement journalistique.
Concevoir des visualisations narratives et interactives de données en utilisant des outils adaptés (Flourish, Datawrapper, d3.js) et des générateurs IA de supports visuels, de sorte à rendre l’information accessible, lisible et engageante sur différents canaux numériques.
Intégrer les données analysées dans une production éditoriale multimédia en mobilisant des outils numériques de narration enrichie et des assistants IA pour la rédaction, le titrage ou la structuration, afin de diffuser un contenu contextualisé, sourcé et adapté aux formats numériques multisupports (web, mobile, réseaux sociaux).
Garantir la conformité juridique et éthique des contenus produits en appliquant les règles du RGPD, du droit d’auteur, du droit à l’image et de la responsabilité éditoriale, pour sécuriser les projets journalistiques et préserver la confiance des publics.
Modalités d’évaluation
Mise en situation professionnelle simulée avec soutenance orale
Public visé
•les journalistes en activité ou en recherche d’emploi, notamment les jeunes diplômés, souhaitant intégrer les techniques de datajournalisme à leurs pratiques quotidiennes, que ce soit en presse écrite, en radio, en télévision ou en ligne.
• les professionnels de la communication issus d’autres secteurs du journalisme, désirant développer des compétences spécifiques dans la collecte, l’analyse et la narration de données à des fins éditoriales
• les professionnels de l’information et de la documentation, travaillant dans des institutions, des ONG, des collectivités ou des entreprises et chargés de produire, structurer ou diffuser de l’information à forte valeur ajoutée `
Durée : 140 heures (20 jours)
Prérequis à l’entrée de la formation :Professionnel de l’information, du journalisme ou de la communication en activité ou en recherche d’emploi.
Prérequis à la validation de la certification : Avoir suivi un parcours de formation proposé ou reconnu par le CFJ, intégrant la préparation à la certification ou par candidature individuelle justifiée d’une expérience ou d’une pratique en journaliste communication ou exploitation de données d’au moins un an pour se présenter directement à l’épreuve.
Programme détaillé de la formation ici
Une demande d’enregistrement au RS a été effectuée auprès de France Compétences.
![]() |
Établissement d’enseignement supérieur privé 210 Rue du Faubourg Saint-Antoine 75012 Paris 01 44 09 42 02 |

Nous trouver |
