Geopolintel

Les sondages de popularité de Macron sont sponsorisés par Davos et McKinsey

vendredi 21 juillet 2023

Les sondages Ipsos qui peinent à cacher que les français ne peuvent plus voir Macron en peinture sont une émanation de Davos.
Datawrapper est un logiciel créé par plus de 23 personnes : « Nous travaillons ensemble pour créer le meilleur outil de visualisation de données pour tous ceux qui veulent montrer leurs données dans de beaux graphiques, cartes et tableaux. »

Les données proviennent des salles de rédaction internationales telles que le New York Times, NPR, Deutsche Welle, Bloomberg, Correctiv et ZEIT Online.

Datawrapper contribue à la transformation numérique du service public et de là, à les associer à MacKinsey il n’y a qu’un pas.
Cette pratique s’appelle le Data Journalisme qui consiste à falsifier l’information à partir de chiffres à qui ont fait dire ce que l’on veut.

La popularité de Macron est presque nulle, tout comme celle de son gouvernement qui masque l’omnipotence du Président fantoche.

Le Datajournalisme est la même activité exercée par McKinsey pour vendre très cher des powerpoints qui sont inutiles tels ceux de la gestion de la crise sanitaire.

Mieux comprendre la notion de data journalisme

Le journalisme de données permet de relater les faits sous une autre dimension. Il va plus loin que le journalisme traditionnel qui se contentait de commenter ou d’afficher simplement les statistiques ou informations chiffrées en sa possession. Le data journaliste a la possibilité d’opter pour des angles d’approches différentes, raconter d’autres histoires, analyser les chiffres pour donner une nouvelle présentation de l’information à travers un meilleur design et l’utilisation des outils infographiques.

On peut dire que le datajournalisme a vu le jour grâce à l’évolution des outils numériques qui font maintenant partie de notre quotidien, mais aussi par l’ouverture des données publiques. Cela demande au journaliste de développer son esprit collaboratif, ce qui n’était pas si important dans ce métier auparavant. La nécessité d’utiliser des outils open source, la mise en réseau de codes ou des applications conçues par des professionnels du domaine qui seront utilisées par une autre équipe ont permis aux journalistes de données de développer une communauté très soudée au niveau international. Cette méthode de travail implique également de nouvelles façons de travailler sur les bases de données et la création de bases citoyennes.

Les applications du data journalisme

En réalité, les applications du data journalisme peuvent être très variées. Aujourd’hui, les données sont accessibles partout et les journalistes sont en mesure de tirer les informations dont ils ont besoin de différentes sources. L’expérience professionnelle, les documents confidentiels, les données environnementales, les statistiques sur les meurtres, les maladies, les résultats d’élections, la croissance économique… tous ces éléments convertis en données numériques peuvent servir de base pour la conception d’une œuvre journalistique.

Le data journaliste doit alors maitriser un certain nombre d’outils informatiques et les programmes dont il a besoin. On peut citer pour exemple l’utilisation d’un langage de programmation pour automatiser la collecte et le recoupement des données issues des instances locales, de la police et d’autres sources civiles par Adrian Holovaty avec Chicago Crime et EveryBlock. « The Telegraph » a également utilisé un logiciel pour trouver la relation entre des centaines de milliers de documents concernant l’affaire sur le scandale des notes de frais des députés britanniques.

Le datajournalisme peut être utilisé pour raconter une histoire complexe avec des graphiques compréhensibles. C’est le cas avec les discours donnés par Hans Rosling sur la visualisation de la pauvreté mondiale avec Gapminder, qui a été suivi par des millions de personnes. Nous pouvons aussi mentionner le travail abattu par David McCandless (Information is Beautiful) avec la condensation des gros nombres au sujet de la contextualisation des dépenses publiques ou concernant l’analyse de la pollution générée par l’éruption du volcan islandais.

Grâce au datajournalisme, on peut rendre plus explicite l’impact d’une histoire sur chaque individu tel que cela est réalisé maintenant par la BBC et The Financial Times avec leurs budgets interactifs qui permet d’évaluer comment le budget vous affecte personnellement. Cette discipline permet aussi de mettre en place le processus de collecte de données. The Guardian exploite ce procédé avec le partage d’information, de questions et d’éléments de contexte sur son Datablog. En France, le magazine Paris Match lance en 2013 Data Match, une page dédiée à sa rubrique « Match de la semaine », tout comme le journal Le Monde qui lance la rubrique « Les Décodeurs » dédiée au fact-checking.

La preuve que le datajournalisme est bien reconnu est l’organisation de ses propres distinctions (Data Journalism Awards) et la création du Data Harvest, une rencontre annuelle essentielle pour la profession. Dans les écoles de journalisme sont maintenant dispensés des cours sur les fondamentaux du data journalisme.

Les données représentent le fondement du data journalisme. Mais elles peuvent aussi être l’outil qui permet de raconter l’histoire. Comme cela est d’usage avec n’importe quelle source d’information, il est important de prendre en compte leurs limites ainsi que leur influence sur les histoires qu’elles permettent au journaliste de créer.

Méthode de travail du data journaliste

Le data journaliste réalise son travail en 3 étapes : la collecte des données, le traitement et la publication des résultats.
Collecte des données

La principale tâche du data journaliste consiste à rechercher les données. Même si cette étape peut se montrer longue et fastidieuse, elle est indispensable pour la suite du travail. L’utilisation d’internet permet de simplifier les choses avec les informations qui peuvent être recueillies auprès de sources officielles, mais aussi à partir de la contribution des internautes via leur blog ou des discussions en ligne.
Traitement des données

L’ensemble des données collectées doit être traité et analysé. Avec le Big Data, les données deviennent de plus en plus nombreuses et complexes à étudier. Le data journaliste doit alors utiliser différents outils pour faciliter son travail.

Les données brutes seront d’abord compilées.

  • À l’aide d’outils informatiques performants, les données sont ensuite débarrassées des erreurs.
  • Il faut maintenant contextualiser la source pour s’assurer de sa fiabilité et vérifier la validité de l’angle d’attaque du sujet.
  • Les données restantes doivent ensuite être combinées entre elles pour contrôler une nouvelle fois leurs authenticités.

À partir de là, le data journaliste possède des éléments solides pour réaliser la restitution de son enquête.
Publication des résultats

Le sujet traité doit être facile à comprendre pour le public. Cette dernière étape consiste à donner un visage humain aux chiffres bruts et abstraits pour établir une relation de confiance avec vos lecteurs. Ces données peuvent être transcrites sous forme de courbes, de tableaux, d’histogrammes, etc.

Pour y arriver, le data journaliste doit prendre le temps de connaitre son public pour adapter sa communication. Il pourra enfin relayer sa publication sur les réseaux sociaux et interagir avec les lecteurs pour améliorer son travail.


Comment devenir data journaliste ?

Les écoles de journalisme sont recommandées pour devenir data journaliste. Il existe des spécialisations en data journalisme en complément d’une formation journalistique classique. Science-Po Lyon et le CFJ ont même ouvert un double diplôme en « journalisme data et enquête ».

Plusieurs data journaliste sont également issus de formations en informatique avec un intérêt prononcé pour l’information. Vous pouvez aussi vous orienter vers les bootcamp qui propose des formations dans le domaine de la data qui proposent des enseignements pratiques sur les techniques et outils d’exploration des données.

Les nombreuses informations recueillies grâce au big data permettent d’instaurer de nouvelles pratiques au sein de la plupart des secteurs d’activité. Le métier de data journaliste représente alors l’évolution logique du journalisme par rapport aux progrès des nouvelles technologies et face à notre mode de vie actuelle.

Si vous souhaitez acquérir les compétences en Data recherchées des recruteurs, n’hésitez pas à télécharger notre syllabus afin d’en apprendre davantage sur notre formation Data Analyste.

Source

Les 7 conseils de McKinsey pour devenir une organisation data-driven

McKinsey estime que d’ici à 2025, la plupart des organisations utiliseront les données pour optimiser leur activité et prendre de meilleures décisions fondées sur des faits. Dans un récent rapport, le cabinet énonce 7 conseils à suivre devenir une organisation data-driven.

Introduction
1. La donnée comme base de toutes les décisions et interactions
2. Traiter et mettre les données à disposition en temps réel
3. Fournir les données sous forme d’insights prêts à être réutilisés
4. Rendre la donnée accessible comme n’importe quelle information
5. Donner un rôle stratégique aux Chief Data Officers
6. Contribuer à la création d’un écosystème de données
7. Automatiser la gestion des données pour garantir la confidentialité, la sécurité et la résilience

Les organisations sont conscientes de l’importance de leurs données. Elles sont d’ailleurs 84 % à juger positif voire très positif (25 %) l’impact des projets de valorisation des données sur leur organisation, selon notre dernière étude auprès de plus de 200 organisations de tous les secteurs d‘activités.

Dans ce contexte, de nombreux acteurs évoluent vers un modèle de fonctionnement centré sur les données pour améliorer l’efficacité, la transparence et la prise de décision.

McKinsey estime que d’ici à 2025, la plupart des organisations utiliseront les données pour optimiser leur activité et prendre de meilleures décisions fondées sur des faits. Dans un récent rapport, le cabinet énonce 7 conseils à suivre pour adopter une démarche data-driven.

1. La donnée comme base de toutes les décisions et interactions

Selon notre dernière étude, 50 % des organisations ont déjà entamé des projets pour valoriser leurs données. Pourtant, seulement 41 % d’entre elles déclarent que les projets sont déjà lancés et pour 54 %, elles se situent encore à un stade antérieur (stade de conception, étude de faisabilité, état des lieux et diagnostic).

Par ailleurs, lorsque les organisations exploitent leurs données, les projets se limitent souvent à certains départements ou cas d’utilisation spécifiques. L’enjeu est donc de généraliser ces réussites isolées pour que les données deviennent partie intégrante du quotidien de chaque collaborateur et se trouvent au cœur de la culture interne.

Les données étant silotées, elles ne sont généralement accessibles et compréhensibles que par des experts. C’est pourquoi il est important de démocratiser les données, c’est-à-dire de permettre à chaque collaborateur d’accéder aux informations dont il a besoin et de les utiliser aisément, sans avoir à recourir à un expert, à des compétences supplémentaires ou à une formation.

Cette évolution n’est possible que grâce à la diffusion d’une culture axée sur les données, et à la mise en place d’outils que chacun peut utiliser pour accéder et utiliser les données. Les décisions deviennent alors plus rapides et plus éclairées, la compréhension des performances s’affine et l’efficacité augmente à mesure que les approches traditionnelles sont remplacées et systématisées.

2. Traiter et mettre les données à disposition en temps réel

McKinsey soulève un deuxième défi : réduire le délai entre la création des données et le moment où elles sont disponibles pour le partage et la réutilisation.

Les organisations collectent et dépendent de données provenant de différentes sources (les capteurs de l’Internet des objets présents sur site ou à l’extérieur. Dans ce contexte, il est indispensable de pouvoir s’appuyer sur un écosystème de solutions data qui permette de rassembler toutes ces données et de les rendre intelligibles et exploitables par tous dans leurs tâches quotidiennes.

Le portail de données ouvertes de la ville d’Orléans partage par exemple des informations sur la qualité de l’air provenant directement d’un réseau de capteurs. Les citoyens peuvent ainsi observer l’évolution de la pollution dans différentes zones de la ville. Orléans propose également des solutions de partage de données innovantes : elle affiche par exemple des codes QR dans les parcs publics, que les visiteurs peuvent utiliser pour en savoir plus sur certaines plantes.

3. Fournir les données sous forme d’insights prêts à être réutilisés

Les organisations de tous les secteurs génèrent de grands volumes de données mais ont souvent du mal à rassembler ces informations et à les rendre facilement accessibles et compréhensibles à leurs équipes.

Pour fournir des insights exploitables aux organisations, les experts data doivent explorer manuellement les ensembles de données, et établir des corrélations en les comparant. Toutefois, cette approche augmente le risque d’erreurs, prend beaucoup de temps et ne permet pas d’avoir accès en continu aux données.

C’est pourquoi les organisations doivent fournir aux utilisateurs les outils dont ils ont besoin pour comprendre les données, quel que soit leur niveau de compétence, en créant des expériences de données sous forme de cartes, de graphiques, de tableaux et d’autres modes de visualisation pertinents.

Il convient également d’identifier les datasets à forte valeur ajoutée pour les collaborateurs, citoyens ou partenaires afin de créer de la valeur et de développer de nouveaux services, par exemple en combinant différentes informations clients en un aperçu unique et global de leur comportement.

4. Rendre la donnée accessible comme n’importe quelle information

McKinsey souligne le manque de gouvernance des données dans les organisations. On remarque souvent qu’aucun “propriétaire” des données n’est réellement identifié, ce qui rend difficile leur mise à jour et conduit souvent à la création de doublons. Stockées dans des environnements cloisonnés et souvent coûteux, les utilisateurs finaux rencontrent des difficultés pour accéder et réutiliser rapidement les données dont ils ont besoin.

La donnée doit en réalité pouvoir être utilisée comme n’importe quel autre type d’information, par des équipes en interne ou par des utilisateurs externes (clients, citoyens, partenaires, etc). Des équipes spécialisées doivent être associées à ces projets afin de mettre en place l’architecture de solutions data qui permette à tous d’accéder aux données, de connecter de nouvelles sources et de mettre en œuvre des expériences data simplement.

Grâce à ce type d’outil, les organisations peuvent multiplier les usages : instaurer une meilleure organisation en interne pour soutenir la prise de décision, mettre à disposition des services autour de leurs données ou encore les partager au plus grand nombre pour créer de la valeur à partir des insights obtenus.

5. Donner un rôle stratégique aux Chief Data Officers

Actuellement, de nombreux Chief Data Officers sont chargés de contrôler la conformité et de superviser la collecte et l’utilisation des données selon les directives réglementaires et des politiques de l’organisation.
Toutefois, ils doivent également contribuer à développer l’utilisation des données au sein de l’organisation et à renforcer la culture des données pour permettre à chaque métier d’enrichir ses projets grâce aux données.

Comment organiser les équipes data ? Nous avons constaté dans notre dernière étude que les organisations interrogées qui n’avaient pas encore lancé de projet de données mais projetaient de le faire, optaient plutôt pour une structure centralisée. Pour celles qui débutent leur réorganisation autour des données, cette approche permet de centraliser les connaissances et de mobiliser moins de ressources que la mise en place d’équipes transverses.

Lorsqu’elles deviennent plus aguerries, les organisations peuvent alors passer à des équipes transverses, avec des experts présents dans chaque service. Cette approche améliore la communication, assure l’alignement sur une stratégie data unique et globale, favorise le développement d’une culture des données et le partage des connaissances acquises en interne.

6. Contribuer à la création d’un écosystème de données

Nous vivons désormais dans un monde piloté par les données, ce qui signifie que les possibilités de partage et de réutilisation des informations s’étendent bien au-delà des organisations. En conséquence, il est crucial de collaborer avec les partenaires de l’écosystème et d’autres parties prenantes pour maximiser la valeur des données. Les informations peuvent être fournies automatiquement dans des formats immédiatement réutilisables ou combinées avec d’autres sources de données pour générer davantage de valeur.

Par exemple, l’opérateur de télécommunications SFR collecte automatiquement les données anonymisées des cartes SIM de ses clients lorsque ces derniers se déplacent. De ces données, il tire des renseignements à propos des déplacements et des comportements des personnes, ce qui lui permet de créer un nouveau service : SFR Géostatistique. Cela représente une nouvelle source de revenus pour l’entreprise, car d’autres organisations peuvent acheter les données ou le savoir-faire en question et les utiliser pour planifier de nouveaux projets.

De même, Schneider Electric, spécialiste des solutions énergétiques numériques, a largement mis ses données à la disposition de son écosystème de partenaires. Le portail Schneider Electric Exchange permet aux utilisateurs d’utiliser des produits numériques et d’entrer en contact avec des prestataires de service ou avec leurs pairs au sein de communautés ouvertes.

7. Automatiser la gestion des données pour garantir la confidentialité, la sécurité et la résilience

Il va de soi que tout partage de données interne ou externe est soumis à des exigences de conformité, en particulier lorsqu’il est question d’informations sur les clients. Cependant, la protection de la confidentialité et de la sécurité n’a pas à être un processus manuel fastidieux. Il est possible de l’automatiser dans le respect de certaines règles et procédures en matière d’éthique des données.

Par exemple, UK Power Networks lance une opération de tri sur chaque ensemble de données avant de le partager. Les données sont évaluées à l’aune de plusieurs critères (dont la confidentialité, la sécurité, l’éthique, la propriété intellectuelle, la qualité des données) pour déterminer si elles peuvent être publiées ou si elles nécessitent un traitement supplémentaire en vue de les anonymiser. Fidèle à son engagement de transparence, UKPN partage ses méthodes de tri des données pour permettre à toute l’industrie de les utiliser.

Dans tous les secteurs de l’économie, les organisations capables d’exploiter et de partager les données acquièrent la possibilité de créer de la valeur, de prendre de meilleures décisions, d’accroître l’efficacité et la collaboration et de lancer de nouveaux services.

Source

—  0 commentaires  —

© Geopolintel 2009-2023 - site réalisé avec SPIP - l'actualité Geopolintel avec RSS Suivre la vie du site