JEAN-MARC LAZARD

Transcription de l'entretien

JEAN-MARC LAZARD

Président et co-fondateur d'Opendatasoft

"Un accès égal à la donnée grâce à l’Open Data."

Data Impact logo

Bonjour je suis Caroline Goulard, j’ai créé deux entreprises dans le secteur de la visualisation de donnée et je travaille depuis plus de 10 ans à créer des ponts entre les humains et les données. On se retrouve aujourd’hui pour un nouvel épisode de The Bridge, le média d’Artefact qui démocratise la culture des données et de l’intelligence artificielle. Et aujourd’hui on reçoit Jean-Marc Lazard. Jean-Marc bonjour.

Bonjour Caroline.

Je vais te laisser te présenter pour commencer. 

Alors je suis Jean-Marc Lazard, je suis le co-fondateur et le président d’une société qui s’appelle Opendatasoft que j’ai créée il y a 10 ans et qui édite une Data Experience Platform dont la mission est de démocratiser les usages de la data et donc nous sommes leader européen de ce domaine. 

Quel a été le contexte de création d’Opendatasoft ? Pourquoi avoir initié ce mouvement de démocratisation de l’usage des données ? 

Alors quand j’ai créé Opendatasoft donc il y a un peu plus de 10 ans, je travaillais déjà dans la technologie autour de la data mais plutôt des contenus et en particulier des moteurs de recherche et mon quotidien c’était de développer des technologies pour faciliter l’accès aux documents, aux images, à la vidéo, enfin tout ce qui est devenu assez naturel aujourd’hui dans notre quotidien et la data était un sujet souvent perçu comme chose d’assez technique finalement c’était l’affaire des gestionnaires de base de données et de choses très compliquées et on voyait quand même que tout ce patrimoine d’information et de connaissances que représentait la donnée était assez difficilement accessible donc l’idée avec Opendatasoft a été se dire, mais existe-t-il des solutions et comme on a constaté que ce n’était pas le cas, on a décidé de développer une solution dédiée à l’accès simplifié aux données, donc finalement comme un gros moteur de recherche, comme un Google de la data si on peut dire pour simplifié et donc ça a été ça notre projet. 

Donc pour accéder aux données mais aussi peut-être pour les avoir à un endroit, au final est-ce que c’est comme publier du texte ou de l’image ?

Alors non effectivement, l’analogie de la donnée est un contenu s’arrête là. La donnée c’est un élément, c’est comme un atome finalement, si ce n’est pas assemblé à d’autres atomes et mis en forme ça n’a pas forcément beaucoup d’intérêt en tant que tel ou ne sert qu’une seule fois à un moment donné pour mesurer quelque chose ou pour donner une information. Et donc la donnée effectivement a des caractéristiques particulières. Une autre caractéristique aussi c’est qu’une donnée plus une donnée fait une autre donnée donc on peut dire un peu avec cette réaction en chaîne qu’on se retrouve à avoir une masse d’informations à travers ces données à traiter et donc quand on s’attaque à la question de publier et de rendre accessible très simplement ces informations qui à la base sont des données qui n’ont pas forcément beaucoup de sens en elles-mêmes, et bien il y a des questions de format à appréhender, des questions de qualité de données, des questions de mise à disposition dans des formats et sous des formes en tout cas qui les rendent accessibles et intelligibles au plus grand nombre pour que ça ne soit plus justement qu’une question, qu’une expertise de gestionnaire de base de données ou d’experts en traitement de data. 

Comment se présente l’interface d’Opendatasoft ? 

Alors un utilisateur final souvent d’ailleurs va consommer de la data sans s’en rendre compte. Elle aura été le plus souvent mise en forme, alors sous forme d’une visualisation, un graphique, une carte et derrière évidemment c’est de la mise en forme de données unitaire qui est rendu accessible et intelligible pour un besoin donné donc ça c’est la version la plus classique à travers laquelle on consomme de l’information mais qui finalement n’est que de la donnée mise en forme. Il y a aujourd’hui aussi une variété de profils qui sont capables de consommer de la donnée notamment grâce à la simplicité d’utilisation de certains outils du quotidien, donc un certain nombre d’utilisateurs qui vont vouloir consommer de la donnée de manière quasiment brute. Donc on peut aujourd’hui grâce à des outils décisionnels ou même son tableur préféré Excel ou autre, récupérer des grosses masses d’informations, les charger et les traiter tout seul finalement sans être un expert en data science ou autre. Donc on va vouloir récupérer des données mais pour ça, ça suppose que ces données soient disponibles dans des formats standards, que je puisse effectivement les charger dans mes logiciels préférés, qu’elles soient de qualité suffisante et structurée, bien décrite et puis évidemment ça ne repose pas que sur les formats, ça repose aussi sur la connaissance d’où viennent ces données finalement, est-ce que je peux avoir confiance en elles, quelle est leur fréquence de mise à jour. Donc on voit tout un tas d’informations autour de la donnée, on appelle ça d’ailleurs des métadonnées qui les décrivent, c’est l’enveloppe qui les décrit, qui sont presque aussi importantes en tout cas dans l’usage, que la donnée elle-même. On voit que la relation de l’utilisateur à la donnée ne se limite pas à une mise en forme visuelle mais aussi à tout un ensemble d’informations qui entourent cette donnée. Et puis finalement aussi toujours grâce à ces outils qui se modernisent et qui rendent très simple le développement d’applications, aujourd’hui on peut développer une application quasiment sans savoir écrire une ligne de code, on a besoin d’avoir des accès à ce qu’on appelle des API donc ce sont des accès programmatiques, ce sont des accès très standards pour que des machines finalement puissent consommer de la donnée et finalement on peut tous être développeurs donc on a besoin aussi d’avoir ce mode d’accès. Donc si on résume on voit qu’aujourd’hui une donnée, une même donnée peut s’exposer de 3 façons et il faut qu’elle soit d’ailleurs disponible sous ces trois façons. Alors je vais commencer par la façon la plus technique donc on appelle ça des ABI pour que toute personne qui voudrait développer une application et avoir un accès temps réel à cette donnée, puisse ensuite brancher son application sur la source de données, un accès brut pour pouvoir télécharger des fichiers, typiquement un fichier CSV, un format que tout le monde connaît puis d’autres types de formats, de telle sorte que je puisse la récupérer encore une fois dans mon logiciel favori ou quotidien et puis je dois aussi pouvoir explorer les données de manière visuelle alors souvent on imagine les données sous forme de graphique, de cartes, ça peut être d’autres formats mais voilà ce sont ces trois formes qu’une même donnée peut prendre très concrètement. 

Quelles sont les personnes chargées de mettre à disposition ces données ? 

Au sein des organisations on trouve finalement pléthore de personnes qui sont en charge de la production, de la gestion et de la mise à disposition des données. Pour prendre un exemple très concret, si je suis dans une entreprise responsable du référentiel produit, une société agroalimentaire, ce référentiel évolue en permanence et jusqu’à présent j’avais la charge de gérer ces données là et puis de faire en sorte qu’elles soient à jour dans mon progiciel favori pour alimenter ma supply chain, les circuits de distribution. Ces données là, j’ai de plus en plus besoin de les partager avec un auditoire beaucoup plus varié et bien souvent d’ailleurs en dehors de l’entreprise, par exemple si on est sur des biens de grandes consommations, ces données là je vais devoir les mettre à disposition de nouvelles places de marché, de grands et commerçants et qui vont avoir aussi des exigences même dans la façon dont je mets à disposition ces données et qui évidemment ne vont pas se connecter à mes outils métiers de supply chain ou mon ERP favorite. Ils ont besoin d’avoir la donnée brute pour en permanence avoir la vision de mes stocks, etc. Donc on voit que finalement de quelqu’un qui a la charge de la gestion d’un référentiel produit dans une entreprise, je me mets à devenir diffuseur d’informations finalement comme du contenu auprès d’un auditoire très vaste, d’où l’importance des formats de mise à disposition de ces données qui doivent correspondre aux besoins. Donc dans cet exemple on va effectivement que dans n’importe quelle organisation, on est créateur, gestionnaire et diffuseur de données donc l’intérêt il est un de connecter son organisation et son propre métier à un écosystème extrêmement vaste aussi bien vers l’interne mais l’externe de l’entreprise, donc ça c’est un bénéfice opérationnel, logique de productivité et d’efficacité dans son organisation. Et après il y a d’autres intérêts, on peut en citer deux, il y a un intérêt de communication, aujourd’hui les Anglais disent speak with data, c’est en fait une des phrases phares chez Amazon, c’est à dire que finalement la donnée mise en scène va étayer et prouver ou démontrer ou expliciter tout autre forme d’autre communications. Il y a même un élément fort de la culture d’Amazon qui est de dire qu’on ne peut pas communiquer en interne et proposer des projets sans speak with data. Donc on voit qu’effectivement être capable de partager de l’information et la rendre intelligible et claire pour un maximum de gens ça devient clé. Et il y a un troisième point qui est aussi une question de confiance finalement si on applique ce propos que j’évoquais plutôt pour le fonctionnement interne d’une entreprise, on peut l’appliquer vis-à-vis de ses clients, de ses partenaires également aujourd’hui attendre qu’on prouve par les données ce qu’on dit, donc typiquement c’est particulièrement vrai pour tout ce qui est de la communication de l’ordre de l’impact, impact positif, environnemental ou diminution, les consommateurs attendent évidemment qu’on prouve par les données d’une certaine manière ce qu’on fait et que donc on puisse accéder à ces données. Et puis quatrième point qui fait un peu le lien entre tout ça, c’est aussi une question d’innovation, on voit aujourd’hui qu’aucune entreprise n’est capable d’innover seule, elle est dans un écosystème très vaste, finalement souvent ce qui fait le lien entre les acteurs innovants c’est ce partage d’informations, de cette donnée, données client, données métiers, tout un tas de choses évidemment ça dépend des secteurs et donc il est clefs de pouvoir très facilement la faire circuler. Donc si on devait synthétiser on passe d’une vision d’une donnée en stock à une vision d’une donnée en flux et qui doit circuler très largement, certes en interne mais aussi en externe de l’entreprise. 

En quoi consiste l’Open Data ? 

Alors l’Open Data, en bon français données ouvertes ou ouverture des données, c’est un mouvement qui est arrivé en France et en Europe continentale venant des États-Unis et d’Angleterre donc c’est plutôt au départ une philosophie, un ensemble de valeurs finalement qui consiste à mettre à disposition des données pour un accès libre et gratuit. Alors pourquoi, les historiens un jour évidemment peut-être challengeront ce ce point là, mais on dit souvent que l’administration Obama, parce que voilà ayant une politique un petit peu différente de ces prédécesseurs notamment d’augmentation des impôts, avait à cœur de prouver les effets de son action et donc une façon de le faire c’était le dire nous allons le prouver par des données donc finalement des données de la fonction publique, que chaque impôt ou chaque dollar supplémentaire de taxes se traduirait en action. Donc c’était ça l’idée derrière. Alors c’était qu’une partie de l’idée, souvent c’est vrai qu’on avait tendance à la réduire à ça, la deuxième partie c’était surtout pour accélérer et favoriser l’innovation d’ailleurs un des exemples qui étaient pris à l’époque c’était le GPS, aujourd’hui ça nous paraît naturel mais finalement le système GPS c’était déjà de la mise à disposition libre et gratuite de données, d’informations, pour acquérir un leadership économique. Il y avait quand même un objectif, notamment de la sphère industrielle américaine de dire en mettant à disposition au début librement et gratuitement ce système là, on va favoriser son adoption et une fois que les gens sont entre guillemets accro à ce système là évidemment ce sera le système leader. Donc on voit qu’il y avait effectivement un certain nombre d’objectifs concomitants dans l’Open Data. Quand il est arrivé en France, au moment où nous avons créé Opendatasoft, évidemment on a retrouvé à peu près les mêmes bénéfices attendus, à savoir une vie publique plus transparente et on voit qu’aujourd’hui c’est un mouvement qui n’a pas arrêté et qui d’ailleurs ne touche pas que la fonction publique, c’est une exigence des consommateurs de plus en plus vis-à-vis de leur fournisseurs donc des entreprises et puis aussi la donnée comme carburant de l’économie numérique et donc qui permet à la fois de stimuler, favoriser l’innovation puisque si une organisation partage ses données avec le plus grand nombre, des services nouveaux vont se créer à partir de ces données là. On peut citer par exemple des cas de société qui se sont créées 100% sur l’Open Data, un acteur de la mobilité, ceux qui habitent plutôt dans les villes où ceux qui voyagent, connaissent peut-être Citymapper, c’est un calculateur d’itinéraire leader dans le monde et bien il s’est construit que grâce à l’Open Data des villes qui mettaient à disposition les données de temps réel des transports publics. On voit qu’effectivement ça peut stimuler et générer des nouvelles sociétés, de nouveaux usages avec une adoption massive. Donc voilà ce qu’est et ce qui a permis l’Open Data au départ. 

Quelles étaient les promesses de l’Open Data à sa sortie ? Avec le recul, ces promesses ont-elles été tenues ? 

Comme tout nouveau mouvement, d’ailleurs que souvent certains n’hésitent pas à qualifier d’effet de mode au départ, il y a aussi beaucoup de promesses, d’enthousiasme on va dire, et donc parfois un peu d’utopie. Donc dans les deux cas, il y a eu des promesses effectivement sur la transparence de la vie publique et puis assez rapidement on a vu que ça se heurtait, alors c’est à la fois aussi un bon signe, à beaucoup de réticences, alors de bonne ou mauvaise foi on en parlera peut-être, mais effectivement on a cette donnée et on m’a dit aussi l’information c’est le pouvoir, et donc oui si la donnée c’est l’information, c’est aussi le pouvoir. Donc on a vu assez rapidement des lignes de force se créer, des gens qui construisent tout un argumentaire pour expliquer pourquoi l’Open Data ce n’était pas bien et qu’en fait c’était plutôt un recul pour la société, etc. Et puis par rapport à l’innovation et finalement la stimulation de la création de nouveaux usages et le développement économique, pareil il y a eu un peu toute une une croyance un peu naïve, simpliste, peut-être candide, comme tout mouvement au début, de se dire si je pose des données libres d’accès pour tout le monde, par magie des usages vont se créer. Alors on prenait évidemment comme toujours les deux ou trois exemples, c’était Citymapper, et on se disait il va y avoir des Citymapper à chaque coin de rue. Ce n’est évidemment pas ce qu’il s’est passé, en revanche aujourd’hui le mouvement c’est devenu un mouvement de fond, c’est quelque chose qui est rentré dans la loi de certains pays, c’est une habitude qui aujourd’hui ne touche pas simplement la sphère publique qui cherche à innover dans ses services mais aussi des entreprises qui en font le cœur du réacteur de leur stratégie data et je pense qu’on va y revenir pour donner des exemples concrets. 

C’est rentré dans le droit français ?

Alors c’est effectivement entré dans le droit français puisque depuis 2016 il y a une loi qui s’appelle La loi pour une république numérique, qui ne concerne pas que l’Open Data mais qui met le partage de données au cœur, c’est une loi qui vise à moderniser l’outil public d’un point de vue digital, porté par Axel Lemaire, en même temps dit la loi Lemaire pour ceux qui auraient entendu parler de ça, donc on parle bien de cette loi là, et qui pour une fois donne des éléments très précis sur la façon de transformer une data en open data. C’est assez rare dans une loi de dire comment les choses doivent être mises en place, en général ça donne un cadre, et là explicitement dans cette loi on parle de format, on parle d’accès programmatique donc on voit que quelque part il y avait quand même des sachants de la donnée qui ont contribué à la rédaction et ça a créé un cadre. Alors c’est une loi très contraignante, certains ont pu le regretter, maintenant on voit qu’il y a d’autres pays dans le monde où il n’y a pas de lois, et ça avance à la même vitesse, donc ça a plutôt été un cadre qui a permis à la fonction publique, à l’administration française, d’avancer sans gêne sur ce sujet là, d’avoir un peu les coudées franches face à des lignes de force qui n’étaient pas favorables à l’Open Data. 

Une simple mise à disposition des données suffit elle à définir une démarche open data ? 

Mettre à disposition les données ce n’est pas nouveau, certains vous diront que ça fait des années qu’ils mettent des données à dispositions dans un pdf en ligne sur mon site web. Alors on ne parle pas de données là, une donnée c’est quelque chose qui doit pouvoir être en l’état où elle est mise à disposition, récupéré par une machine, on dit machine readable, une machine c’est un programme informatique, ou mis directement dans un tableur Excel ou autre, là c’est une donnée donc là évidemment ce qu’on ne peut pas faire avec une information dans un fichier de type document ou pdf. Déjà il y a une distinction technique sur ce qu’est une donnée. Les poser ou les mettre en ligne, certains vous diront il suffit de mettre un lien de téléchargement sur un site et les gens téléchargeront bien le fichier et se débrouilleront avec. C’est un peu la version minimaliste. Ça ne suffit pas, si on veut vraiment toucher un maximum de gens et aller à l’impact que l’on recherche avec l’Open Data, il y a tout un ensemble d’informations et des moyens d’accès à la donnée qu’il faut rendre possibles. Donc déjà il faut décrire la donnée il faut rajouter des métadonnées, il faut décrire finalement qui en est l’émetteur, quelle est la fréquence de mise à jour, transformer des data qui parfois sont un petit peu techniques, quand vous prenez une donnée qui sort de votre base de données, il y a plein de sigles un peu kabbalistiques, ou en tout cas des descriptions un peu ésotériques issues de la gestion technique de la base de données. Date num, si on vous dit date num vous savez pas forcément ce que ça veut dire alors que si vous le transformez en date de création de l’enregistrement c’est plus clair. Donc toute cette transformation, cette préparation on parle parfois de cosmétique de la donnée, elle est nécessaire. Et là après vous pouvez la mettre en ligne et d’un seul coup elle est consommable par tout le monde, quel que soit ses compétences, donc c’est vraiment ça déjà le travail à faire techniquement sur la data. Après on parle d’accès libre et alors dans la sphère publique on dit gratuit, après il y a les Anglo-Saxons qui ont une notion un tout petit peu plus mesurée, en tout cas un accès libre et sans barrière on va dire, ça repose aussi sur des licences. La data elle était aussi disponible sur le web et beaucoup de gens venaient se servir, et continuent à le faire d’ailleurs en scrapant les données comme on dit aussi en bon français, sans forcément se demander s’ils avaient le droit ou pas de le faire. Donc l’Open Data c’est aussi être extrêmement clair sur qu’est-ce que j’ai le droit de faire, avec quelles données et donc d’associer à chaque donnée mise en ligne à disposition, une licence qui explicite justement ces droits et parfois ces devoirs. Dailleurs ça a été un usage utilisé par un certain nombre d’acteurs qui disent, si je mets à disposition cette connaissance, cette matière première qui en plus pour une bonne partie a été créée grâce à des investissements publics, si vous en êtes un consommateur très bien, faites ce que vous voulez avec, si en plus vous passez du temps à l’enrichir, à l’améliorer, si c’est un référentiel par exemple de station d’arrêt de bus, je vous donne des exemples extrêmement concrets qui se sont passés il y a quelques années et que vous l’enrichissez parce que finalement vous êtes un grand acteur de la mobilité et puis vous allez rajouter des informations, vous avez souvent l’obligation de repartager le référentiel. Alors ça a gêné beaucoup d’acteurs, c’est pour ça que certains ne contribuent pas à l’enrichissement de l’Open Data, mais ça a permis l’émergence de mouvements extrêmement importants, un peu comme la Wikipédia de la data, si on peut dire ainsi et ça a permis ce genre de choses. Et dernier point c’est l’aspect gratuit, c’est très propre à la sphère publique, après quand on touche à l’Open Data d’entreprises ou même d’acteurs qui sont des opérateurs de service public, il y a une nuance à apporter. Le gratuit c’est souvent la donnée brute à un moment donné qui l’est, elle est mise à disposition mais surtout de manière équitable, qu’est ce qui fait que deux acteurs, parce que l’un entre guillemets aurait plus d’argent et l’autre moins d’argent, devraient payer un prix différent. Donc on est plutôt sur la mise à disposition dans les conditions économiques équitables et abordables de cette information et après on peut imaginer des modèles économiques pour financer le service d’accès. Alors je donne un exemple très concret, si je suis un opérateur en Île-de-France, Île-de-France mobilité pour pour ceux qui connaissent l’Île-de-France, qui opère tous les réseaux de transports en commun en Île-de-France et je mets à disposition mes données en Open Data, donc la position des bus, les horaires, etc et puis si comme consommateur de ces données là, j’ai une très grosse société sans nommée laquelle parce qu’il y en a pleins, qui vient consommer ces données de manière assez intensive pour nourrir son calculateur d’itinéraire, je ne fais pas payer la donnée mais le service d’accès puisque je vais entre guillemets devoir payer des serveurs, de la bande passante, du temps de réponse. Donc on voit bien la différence entre le service d’accès à la donnée et la donnée. 

Quels sont les principaux jeux de données qui ont été mis à disposition en Open Data ? 

Evidemment avec cette promesse de nombreux usages nouveaux grâce à l’Open Data, ça ça généré beaucoup d’espoir et d’attente et donc des jeux de données ont été régulièrement et encore aujourd’hui, attendus. Alors c’est c’est souvent très sectoriel et en fonction des sujets du moment, on a beaucoup attendu des jeux de mobilité, des jeux sur la position temps réel des bus, des métros, le niveau de remplaçage en fait tout ce qui finalement touche le quotidien des gens, notamment dans les centres les plus denses, dans les villes les plus denses, on se disait j’aimerais finalement prendre le métro, le RER, le train, en me positionnant au bon endroit. Donc tout ça ce sont des informations qui existent, qui sont mesurées et donc il y a eu beaucoup d’attentes là dessus, alors ce n’est pas encore fait mais ça progresse et on voit les systèmes grand public qui se nourrissent de ces données-là. Ca ça a été beaucoup d’attente et ça commence à arriver. Il y a aussi beaucoup d’attentes liées dans la sphère publique au budget, aux investissements donc on a attendu, alors on peut citer quelques exemples, c’est les déclarations des députés. On s’est dit on veut de la transparence, il y a toujours quelques affaires, on veut savoir quelles sont leurs dépenses, comment est-ce qu’ils dépensent leurs dotations, etc, donc ça ce sont des choses qui ont été attendues et qui n’ont pas été si simples que ça à mettre en oeuvre. Donc là on a vu des combats politiques se mettre en place et puis aboutir au bout du compte. Aujourd’hui je dirais que tout type de données va être intéressant, finalement ce qui est le plus demandé aujourd’hui ce sont des données sur l’activité économique, qu’est-ce qui va m’aider moi en tant qu’entreprise ou moi en tant qu’acteur public, de mieux comprendre, de mieux mesurer, pas forcément en temps réel mais quasiment au jour le jour, quel est le niveau d’activité. Donc parfois des choses qui étaient déjà très utilisées se révèlent utiles dans un autre contexte. Quand les données de l’URSSAF ont été mises en Open Data, on sait qu’à travers l’analyse de ces données on a une analyse du dynamisme économique de tel ou tel région puisqu’on voit que les créations, les radiations d’emplois, etc donc il suffit de transformer cette information qui au départ est une information sociale mais de gestion de la sphère sociale, en une information économique et là d’un seul coup ça intéresse un nombre d’acteurs extrêmement important, des responsables du développement économique local évidemment, n’importe quelle entreprise si votre sujet c’est de développer une chaîne de salle de sport, ce sont des informations quand vous les prenez sous ce prisme là qui vous disent si c’est plus ou moins dynamique dans tel secteur, moi mes clients seraient plutôt de tel ou tel type, ces profession là existent plutôt à tel ou tel endroit. Donc on voit qu’une information qui a été créée pour un usage ou une simple raison à un moment donné, ce révèle être une mine d’information dès lors qu’elle est mise à disposition d’autres. Donc voilà on est passé maintenant dans une une logique de demande régulière et puis l’Open Data comme on ditn c’est raccourcir les maillons, c’est raccourcir le chemin entre le producteur et la réutilisateur et les réutilisateurs qui ont compris que l’Open Data existait, ont pris le réflexe d’aller demander, donc ce n’est pas juste je pousse des données c’est finalement une nouvelle plateforme d’échange et de dialogue donc ça connecte des gens ou des organisations entre elles, et qui disent “tes données tu les as mis à disposition, je les trouve pas assez précises, pas assez de bonne qualité, ah bon et pourquoi, etc” donc en plus ça a un effet vertueux d’amélioration de la qualité de la donnée, de nourrir finalement la stratégie data des producteurs de données qui souvent n’avaient pas pensé à toutes les possibilités d’usage de leurs propres données. 

Ce processus de partage des données n’est il pas extrêmement chronophage ? 

Mettre à disposition les données ça demande un peu de temps, mais finalement ça fait surtout gagner beaucoup de temps. Ça demande du temps si on cherche à imaginer tous les usages qui auraient été possibles effectivement, mais ce n’est pas ça la question et justement d’ailleurs avant c’était un peu ça, les gens réfléchissait à tout ce qui pouvait être possible de faire mais ils ne faisaient rien. Là finalement l’Open Data, c’est de dire je mets à un seul endroit, je mets comme si j’avais un entrepôt, un magasin, je mets à un seul endroit toutes mes données et je fais en sorte qu’elles soient très simples à accéder par tout le monde d’une certaine manière même si je ne vous connais pas je ne connais pas, vos compétences, je ne sais pas si vous êtes une entreprise, une organisation, si vous êtes un développeur ou monsieur tout le monde qui veut explorer des données, mais voilà tout ça sera possible et c’est ici. Donc finalement c’est aussi une façon de réduire le nombre d’interactions et de dispositifs à mettre en place donc ça fait gagner beaucoup de temps, à tel point que beaucoup de personnes qui se sont mises à l’Open Data l’on fait pour rationaliser la mise à disposition de données qu’elle faisait déjà. Après il y a un coût ou en tout cas un coût pas forcément technique mais un coup humain, de dire effectivement je mets à disposition des données, je m’expose ainsi à ce que des gens me disent qu’elles ne sont pas assez fraiches, d’assez bonne qualité et donc c’est vrai que ce n’est pas juste un investissement one shot, c’est un investissement qui s’engage dans une démarche long terme, mais un petit peu comme il y a quelques années où les marques ou les entreprises se sont exposées sur les réseaux sociaux, au début elles ont créé leur site, elles ont poussé des contenus puis après il a fallu des community managers pour discuter avec les gens, etc. Donc effectivement on voit qu’il y a toute une nouvelle pratique qui se crée, si on revient sur cette analogie de dire la donnée est un nouveau contenu, comme pour tout autre contenu il faut des gens pour animer la relation autour de ces contenus, pas exactement la même que de publier des postes sur Twitter évidemment, mais en tout cas il y a tout un écosystème avec lequel il faut dialoguer autour de ce propos. Et c’est là qu’on va dire que le coût et l’investissement aident sur le long terme et aussi que tous les bénéfices et les retours sur investissement sont bien là. 

Quelles étaient les craintes des détracteurs de l’Open Data au début de cette démarche ? Pourquoi existe-t-il encore des réfractaires ?

Les principales inquiétudes de ceux qui hésitaient ou voire très franchement ne voulaient pas aller en Open Data étaient souvent de trois ordres, il y avait souvent la crainte du mauvais usage, de l’usage malveillant d’une information et c’est vrai comme c’était nouveau et y compris des acteurs dont on pouvait penser qu’ils manipulaient de la donnée extrêmement classique, des tracés de ligne de train, des tracés d’installation électrique mais grand public qu’on peut voir autour de nous donc on ne se dit pas que c’est de l’information, on se disait mais si je les mets à disposition certains vont en faire un mauvais usage. Evidemment ils ont invoqué tout ce qui pouvait exister de pire dans la société, de terrorisme, etc. Bon dans les faits, 10 ans après, d’abord ces risques ne sont jamais arrivés et deuxièmement on sait très bien que ces mauvais usages ou usages malveillants ils sont en général faits par des gens qui n’ont pas besoin qu’on leur mette la donnée en Open Data, ce n’est pas tellement ça la question. Deuxième deuxième aspect c’est la perte de pouvoir à un moment donné, enfin pouvoir au sens pas forcément pouvoir politique mais vraiment quand on gère une donnée finalement, c’est un peu son fond de commerce, c’est un peu la légitimité, des fois le sens même de son travail au quotidien, de son activité, la partager avec d’autres c’est s’exposer, c’est prendre le risque de se dire que quelqu’un va nous dire qu’on ne fait pas assez bien, qu’on pourrait le faire autrement, qu’on pourrait faire mieux ou qu’on ne viendra plus me demander. Ça a été un vrai sujet, c’est encore le cas aujourd’hui,  je ne sais pas si c’est une crainte inconsciente mais c’est probablement un des principaux freins et nous ce qu’on fait au quotidien quand on accompagne des projets, c’est justement de montrer que tous les bénéfices associés sont beaucoup plus importants et qu’au contraire ça valorise l’activité des gens, tous ceux qui ont franchi franchir le pas, alors de force ou de gré à un moment donné, parce que parfois il y avait des obligations légales de le faire, on dit en fait c’était génial, grâce à la mise à disposition des données que je gérais avant, les gens ont enfin compris ce que je faisais, se sont mis à utiliser mes informations et ça a permis de valoriser et d’expliquer quelque part à quoi je servais là où des fois on ne sait pas trop ce que font les uns et les autres. Donc ça c’est les deux principales craintes et qui ont plutôt eu tendance à à s’estomper. La troisième crainte était plutôt de l’ordre économique, on se disait ça va me coûter cher, ça ne va pas me rapporter autant qu’on le pense, il y avait aussi ce mythe que, souvent on dit la donnée c’est l’or noir, forcément il y a une espèce de raccourci intellectuel qui s’est traduit comme ça a tellement de valeur donc il faut  surtout pas que je le partage, sauf que ça ça peut marcher pour certains types de biens mais quand on est dans l’immatériel, c’est exactement le contraire. Si vous le gardez dans votre coffre-fort ça ne vaut rien du tout, ça ne va pas se valoriser avec le temps. Donc ça ne vaut que si ça circule et que c’est utilisé par des gens. 

C’était plus une incompréhension et ça a été pendant longtemps au début de l’Open Data, des gens n’osaient pas en disant non mais je vais attendre de trouver le modèle économique, je vais vendre mes données très chères je ne vais surtout pas les ouvrir ou les partager avec d’autres. Certains s’y sont essayés et puis 5 ans plus tard, ils n’avaient toujours pas généré un euro avec avec leurs données qui avaient autant de valeur et se sont rendus compte qu’en la partageant avec d’autres, à minima ils génèraient des usages, ils avaient des nouvelles relations business avec des partenaires économiques et là ça les mettaient dans une dynamique positive de développement économique. 

Le risque d’une mauvaise qualité des données est-il un frein à ce mouvement Open Data ? 

C’est d’ailleurs l’une des craintes de ceux qui veulent bien faire et c’est louable, qui d’ailleurs étaient plutôt pour l’Open Data ou en tout cas pour une démarche de partage et de mise à disposition des données dans des conditions maîtrisées et qui soucieux de mettre à disposition de la donnée de bonne qualité, disait je ne mettrai à disposition que quand ça sera parfait. Alors c’est encore une fois louable dans l’intention, maintenant la réalité c’est qu’on a vu que l’Open Data, et c’est pour ça que j’ai pris la comparaison de Wikipédia, c’est s’ouvrir à une communauté qui va vous aider, c’est plutôt bienveillant. C’est à dire que même les acteurs qui étaient les plus réticents et certaines grandes marques ou grandes entreprises qui sont souvent exposées à la critique, se sont rendus compte qu’en ouvrant leurs données, ils s’ouvraient à des gens qui ne leur ont jamais reprocher d’ouvrir de la mauvaise donnée, mauvaise au sens de qualité insuffisante. Ce qui leurs a été reproché c’est qu’en revanche, quand on leurs pointait du doigt qu’ils pourraient améliorer leurs données, on leur donnait même des conseils, ils s’offraient quelque part une expertise gratuite, à partir du moment où ils ne prenaient pas en compte ces demandes, ces recommandations, mais à partir du moment ils les prenaient en compte c’est extrêmement vertueux, il y avait un effet positif, une spirale positif qui se crée, un écosystème qui trouvait ça génial, qui s’enrichissait et finalement un peu encore une fois comme ce modèle de Wikipédia où vous avez les contributeurs qui vous aident à améliorer votre asset, vous vous retrouviez finalement au cœur d’un écosystème et quelque part dans le monde économique, leader de votre de votre secteur grâce à ça. Donc je suis assez d’accord c’est une crainte mais après 10 ans on a comme suffisamment d’exemples pour montrer qu’il faut démarrer, il ne faut pas faire n’importe quoi mais il faut se mettre dans une dynamique, être extrêmement réactif et petit à petit, c’est bénéfique. 

Le partage de données se fait-il également en réseau interne ? 

C’est vrai qu’on a mesuré au début de l’Open Data, je dis on c’est tous les gens qui ont participé à la mise en oeuvre de projets Open Data, qui étaient les utilisateurs. Et alors on a eu des premières statistiques qui ont surpris tout le monde et puis après on s’est dit mais finalement c’est assez évident, c’est que plus 60% au début de l’Open Data des utilisateurs des portails publics étaient les collaborateurs eux-mêmes des administrations. Ça voulait dire que les systèmes, les applications, les sites Web ou Internet qui étaient mis à disposition pour la consommation interne de données était moins performants, ou en tout cas ne répondait pas aux critères ou moins bien que ceux qui étaient mis en place pour l’Open Data. Donc ça éveillait effectivement l’intérêt d’un certain nombre de gestionnaires de système d’informations qui ont dit, finalement ces bonnes pratiques qui ont l’air de fonctionner pour l’extérieur, appliquons les aussi pour l’intérieur. Alors au début pour ces données publiques, finalement c’était un petit peu les deux faces d’une même pièce en disant on doit être aligné là-dessus et finalement c’était vraiment un effet à moindre coût on améliorait l’efficacité interne et puis deuxième sujet les gens se sont mis à partager, cette fois-ci dans un mode privatif mais avec les mêmes principes on va dire d’accessibilité à la donnée, de la donnée privée qui n’avait pas vocation à être partagé à l’extérieur mais quand on est une entreprise et il y a pas besoin non plus d’être une multinationale mondiale pour ça, il y a assez vite des silos, des problématiques de partage d’informations, de problèmes de transversalité et bien finalement rendre la donnée accessible en self service, c’est un principe qui s’est répandu au sein de certaines organisations qui se sont inspirées des pratiques Open Data pour les appliquer à leurs propres données pour leur collaborateurs, collaborateurs au sens large, les employés puis collaborateurs tous ceux qui collaborent avec l’entreprise donc des partenaires business, fournisseurs, distributeurs, etc. 

Quels ont été les premiers projets réalisés au lancement de votre société Opendatasoft ? 

Quand on a démarré Opendatasoft ce qui nous a surpris alors que c’était notre vision, c’est qu’on a tout de suite marcher sur deux jambe, une jambe Open Data et une jambe entreprise. On a eu les deux les deux types de projets auxquels on a contribué et c’est encore le cas aujourd’hui, c’est rester relativement équilibré. Notre premier projet c’était de travailler par exemple pour une branche de Veolia Eau sur la qualité d’eau, donc dans le monde de l’IOT et donc là on n’était pas sur de la mise à disposition de données vers l’extérieur, pas encore à ce moment là, mais on était sur l’amélioration d’un service public qui est celui du monitoring et de la surveillance de la qualité de l’eau. Donc c’est l’activité où les gens vont installer des sondes dans les cours d’eau, dans les égouts, etc et d’ailleurs récemment quand on entendait parler pendant la crise covid de la détection en amont de la présence du virus dans les eaux, c’était exactement ces solutions là, et cette donnée là il y avait une ambition de se dire elle a plus de valeur que simplement entre guillemets détecter des problèmes et ensuite de les résoudre mais elle apporte une connaissance extrêmement utile. Donc ça a été ça et puis à côté finalement mais avec les mêmes outils technologiques, des acteurs du public. C’était notamment le tourisme au début qui a été très friand de ça, donc très orienté client final en se disant les données de notre patrimoine local, son sujet c’était de dire plutôt que de concentrer tous nos efforts sur le nombre de visiteurs de notre site Web et quelque part le client chinois, italien ou espagnol il vient pas sur le site web de Provence, en revanche il va consommer des informations à travers ses propres sites ou des agrégateurs, pour ce soit nous qui ayons la maîtrise quand même sur les données qui sont ensuite répandues par viralité à travers le monde et bien nous allons les mettre en Open Data. Et ça a fonctionné, c’est à dire que c’était plus efficace pour eux de mettre en Open Data des données sur les circuits de randonnée, sur le patrimoine touristique, etc qui se retrouvaient quasi automatiquement répercuter dans tous les sites touristiques qui intégraient cette zone géographique et ça avait un impact beaucoup plus fort et on a des anecdotes assez sympa d’ailleurs de ce type là. Alors peut-être pas avec les Alpes de Haute Provence mais on a travaillé dans le monde culturel par exemple, avec le musée Albert 4 qui a une photothèque incroyable qui dépend des départements des Hauts-de-Seine et ils ont mis en ligne ce qui est assez rare aujourd’hui encore dans le monde des musées, toutes leurs photothèque en libre accès gratuit et au début ils ont été assez interpellés parce qu’ils se rendaient compte qu’ils avaient beaucoup d’appels sur leur coût de consommation sur la portée des bonnes data venant du Vietnam. Alors c’est un peu à cliché de se dire on est en train de se faire hacker par les Chinois, enfin je passe un peu le truc mais en fait en analysant c’était assez intéressant, ils se sont rendus compte qu’il y avait grâce à cette viralité un petit peu naturelle, tout un tas de gens au Vietnam en l’occurrence ont découvert ce site et se rendre compte c’était les seules photos qu’ils avaient des villages qui avaient été détruits pendant la guerre. Et donc il y a eu un pic d’activité, ça a fait connaître leur photothèque, etc et donc ça fait un petit peu le buzz à l’époque, ils sont passés à la radio assez souvent pour expliquer ce cas et ça a montré effectivement comment pour un moindre coût on rendait visible quelque chose, comme un patrimoine, une activité et qui pouvait se répandre à l’échelle mondiale quasiment instantanément.

Comment ces cas d’usages ont-ils évolué entre vos débuts et aujourd’hui ? 

Aujourd’hui l’intérêt aussi c’est la logique de réplicabilité, c’est qu’on dit souvent on est passé d’un Open Data de l’offre à un Open Data de la demande, même beaucoup de gens s’en inspirent donc pour rester peut-être dans ces sujets un peu du patrimoine local ou territorial. Le dernier exemple que j’ai en tête, la métropole d’Orléans, gestionnaire du patrimoine et les services culturels ont installé tout un tas d’oeuvres d’art sur la voie publique, ont eu l’idée d’en faire la promotion aussi, pas que évidemment, mais grâce à la mise en ligne de leurs données mais de créer des pages Web qui sont de la data mis en forme et d’apposer des QR codes sur ces œuvres d’art, donc vous savez pourquoi aujourd’hui tout le monde ne se sert d’un QR code et est assez familier avec ça, c’est que n’importe quel passant pouvait flasher le QR code, ça renvoyait directement vers la data mise en forme pour expliquer bon pourquoi cette oeuvre d’art, qui est l’artiste. Mais l’histoire ne s’arrête pas là, c’est qu’en fait justement grâce à ça ça donnait des statistiques d’usage, alors qu’avant, vous pouviez mettre une oeuvre d’art dans la rue, avant de savoir combien de gens se sont arrêtés devant, alors à moins de mettre une caméra au dessus de chaque œuvre d’art, avant que les gens sachent combien de gens se sont arrêtés, qui s’est intéressé, etc on n’avait pas cette information là. Grâce à ce système de bout en bout, à partir du moment où quelqu’un passe, flash le QR code c’est automatiquement tracé, alors pas la donnée individuelle, mais on est capable de dire voilà il y a 30 personnes aujourd’hui qui se sont arrêtés devant cette œuvre d’art et c’est extrêmement précieux pour des métiers qui avant n’avaient pas du tout la possibilité donc pas du tout l’habitude, de pouvoir mesurer l’impact de leur activité. 

Quels sont les différents modèles économiques du partage de données ?

Il y a beaucoup de modèles qui se sont petit à petit créés, qui sont encore un petit peu en test comme tout nouveau modèle économique dans le monde digital où il y a du test and learn, c’est l’avantage c’est qu’on peut tester des choses, les retirer, les remettre d’une autre manière c’est immatériel. Donc il y a un point qu’on a évoqué à un moment donné, c’est la volonté de monétiser des data brutes, ça n’a pas très bien marché, finalement ce qui a marché dans ce domaine là, c’est que ceux qui vendaient déjà des catalogues de données brutes, des données consommateurs, etc, l’outil digital les a aidés là dessus, c’est pas vraiment un nouveau modèle économique. En revanche beaucoup de gens se sont rendus compte qu’il y avait un peu ces modèles freemium, la donnée permettait de faire connaître des choses, de générer des leads et ensuite de binder les nouveaux clients. Un exemple en tête, c’est par exemple une banque, la Fédération des Banques Populaires, BPCE, a pris le parti de mettre à disposition des données anonymisées et agrégées donc aucun risque de ré-identification des personnes, mais de mettre à disposition des données statistiques issues des données de paiement par les terminaux de carte bancaire. En fait ça se transforme en des informations extrêmement précieuses puisqu’on est capable de dire à l’échelle du département ou de telle ville, voilà le les dépenses moyennes par carte bleue, est-ce que ce sont plutôt des Français, des touristes allemands, etc. ça ça a été mis à disposition, quel est l’intérêt ? Déjà en tant que banque je pense qu’il y a une forme d’engagement, c’est la posture de cette banque, un engagement un peu citoyen de dire on a cette connaissance là, on la repartage avec les autres parce que les acteurs publics locaux, les entreprises locales peuvent l’utiliser. C’est une connaissance et on est vraiment dans une économie de la connaissance dans le sens où si on la partage mieux, on va plus vite trouver des solutions ensemble et puis en période où les crises ont un peu tendance à s’enchaîner, c’est plutôt pas mal qu’on partager rapidement toutes les connaissances. Et puis en fait un des intérêts c’est de dire que grâce à ça, on va faire connaître aussi qu’on a cette information là, des gens vont venir nous voir, plutôt des entreprises, des chaînes de commerce et vous nous dire est-ce que vous n’auriez pas un peu plus de données mais là c’est effectivement de la génération de lead puisque si vous êtes responsable des Banques Populaires vous dites bien sûr et d’ailleurs on a tout un tas de conseils à vous donner pour développer votre commerce dans notre département. Donc on voit qu’il y a un vrai sujet d’attractivité donc c’est pas forcément de la monétisation directe, c’est de la génération indirecte de lead et puis après effectivement à partir du moment où on a vu qu’une donnée pouvait assez facilement maintenant, pour peu qu’on sache ce qu’on souhaite faire, mais s’assembler sous la forme de produit, on dit souvent la donnée c’est un produit mais c’est pas encore une fois la donnée brute, c’est l’objet qu’on a fabriqué avec la donnée qui peut être une visualisation, un site web, un observatoire, un système de QR code vers une œuvre culturelle ou un mobilier urbain, ce sont ces nouveaux objets digitaux, ces nouvelles expériences data qui se sont largement développés et qui ont évolué dans le temps, elles sont monétisées. Donc le modèle économique il est indirect. Et puis après on voit aujourd’hui des entreprises qui grâce à toutes ces discussions et ces 10 ans autour de la valorisation du patrimoine de données se disent moi aussi j’ai un asset incroyable de données, j’ai de la donné industrielle, j’avais jamais pensé à ce qu’elle puisse intéresser d’autres personnes et qui commence à réflechir à ça. Il y a toute une émulation en cours autour des modèles économiques de la donnée c’est extrêmement intéressant. 

A travers la notion d’Open Innovation et de partage des données, quels sont les liens créés entre les acteurs de cet écosystème ?

C’est vrai que le la mise à disposition de données, le fait qu’elle soit réutilisée ça crée des liens de dépendance mais bon je dirais que ça c’est justement toutes les choses qu’il faut anticiper, pas forcément se dire qu’il faut pas le faire mais en tout cas savoir pourquoi on le fait et quel type de dépendance on va créer, mais ça permet de créer des écosystèmes. Aujourd’hui on est vraiment dans des logiques, dans une économie plus globalisée mais qui doit résoudre des problèmes locaux, d’open innovation effectivement ou des acteurs parfois de domaines extrêmement divers qui ne sont pas du tout positionnés au même endroit dans les secteurs d’activité ou dans leur chaîne de valeur, vont se retrouver et décider de partager également des données afin de résoudre des problèmes. Ça peut être innover plus vite, créer plus vite des services, ça peut être évidemment amélioré leur propre modèle économiques. Peut-être citer deux exemples, c’est un tout près de nous parce que c’est assez récent, il y a un ensemble d’acteurs notamment autour du monde médical qui se sont regroupés, et qui ont créé une initiative qui s’appelle Future for Care, donc on va retrouver dedans des entreprises comme Sanofi, Orange et autres, et puis des acteurs éventuellement de la sphère publique qui ont décidé pour avoir une meilleure connaissance des problèmes de pathologies et de mode de vie des gens, de lien entre les deux de partager les données, alors ils ne partagent pas de données individuelles, je préfère le dire parce que souvent y a des amalgames ou des raccourcis qui sont faits mais des données de métiers, des connaissances liés à leurs études qu’is font, études sur les impacts et les études cliniques des laboratoires pharmaceutiques, études de l’assureur ou de la mutuelle qui évidemment connaît beaucoup de choses sur les modes de vie des gens et se disent en mettant ça en commun, pas simplement pour connecter le système et rembourser des médicaments ça c’est un autre sujet, mais en mettant ça en commun on a une base de connaissances sur lesquelles je vais pouvoir travailler, avec des spécialistes data qui vont pouvoir traiter ces masses de données, voire découvrir des liens de causalité et améliorer finalement les connaissances et trouver plus rapidement des problèmes pour des pathologies, la façon de les soigner, etc. Donc ça ce sont des exemples aujourd’hui où on voit qu’il devient assez naturel, en tout cas dans l’intention et là dans la réalité, de se regrouper. 

Un autre exemple pour dire que ce n’est pas propre ni à la France ou à des acteurs européens, ni au sujet de la santé, on participe par exemple à un projet qui s’appelle Israël Living Lab for Mobility, c’est là que c’est intéressant, c’est que l’initiative c’est la ville de Tel-Aviv qui a décidé de regrouper, de motiver et de créer un espace de confiance, on parle de Trusted Data Hub donc espace de confiance de données sur lequel tous les acteurs de la mobilité de cette agglomération vont partager des données alors que pour certaines elles sont limites concurrentes, donc encore une fois pas les données de leurs clients mais si je suis l’opérateur des caméras pour la gestion du trafic, je suis le loueur de trottinettes partagées, je suis l’opérateur de d’autobus de cette ville, on a chacun un morceau du puzzle, un morceau du gâteau de la connaissance de cette mobilité et en la partageant, la ville ensuite a dit de toute façon c’est le même gâteau, on a tous intérêt à ce que ça se passe bien et que ça soit pas la jungle et l’anarchie. Donc on va le partager et on va ensemble, soit avec des tiers à qui ont va donner accès à cette donnée, soit ensemble si vous avez ces compétences, utiliser cette connaissance pour essayer de résoudre des problèmes donc il n’y a pas de magie mais en tout cas ce qui est sûr que c’est que s’il n’y a pas ce partage de connaissance, là il n’y aura pas de solution. Donc les problèmes c’est réduire l’accidentologie, c’est diminuer la congestion de certains axes, etc donc des choses qu’on connaît partout mais on voit que cette intelligence collective elle passe aussi, et ça paraît une évidence, par la mise en commun de la connaissance, enfin des atomes de cette connaissance pour que chacun puisse en bénéficier et travailler ensemble. 

Que penses-tu du cas de Twitter, qui après avoir ouvert son API, a décidé de fermer et monétiser ses données ? 

C’est un bon exemple, tu as raison de le dire, il ne faut vraiment pas tomber non plus dans une forme de candeur ou de naïveté, il y a des intentions derrière, on les croit ou on ne les croit pas, effectivement ce qui s’est passé ça pour répondre précisément à ta question, un certain nombre d’acteurs ont disparu, mis assez vite la clé sous la porte même s’ils ont essayé de lutter ou en tout cas de mettre en avant la position dominante et d’aller dans les tribunaux mais évidemment n’ont pas gagner. Qu’est-ce qui s’est passé, quelques-uns malgré tout ont réussi à s’en sortir mais Twitter les a rachetés au final, alors ce que ça démontre aussi c’est qu’en tout cas par l’ouverture de données, la génération, la stimulation, le développement d’un écosystème, il y a une vraie puissance on va dire, en tout cas c’est un levier extrêmement puissant, pour acquérir une position, alors Twitter ça ne s’est pas résumé à ça évidemment, mais de leadership voilà donc là c’est une méthode effectivement d’un acteur, vous pouvez imaginer ces intentions même si on a pu à un moment donné croire que le monde était merveilleux et que tout le monde voulait que les autres réussissent aussi, on peut de temps en temps croire ça mais c’est quand même pas ça la réalité en général. En revanche ce que ça a prouvé et ce que ça démontre, c’est que effectivement on peut utiliser la donnée comme levier extrêmement fort d’attractivité, de développement. En revanche si on réutilise des données, il faut toujours se poser la question, d’où l’importance des points qu’on évoquait tout à l’heure sur faire attention, quels sont les licences, quelles sont les engagements et ne pas mettre tous les œufs dans le même panier et se dire voilà demain si ça n’existe plus qu’est-ce qui se passe, parce qu’évidemment et c’est pas vrai que pour Twitter, on voit parfois pour des raisons tout à fait autre des administrations qui ouvrent une donnée et qui pour X raisons arrêtent de la mettre à disposition et ça met à mal. Là on peut plus légitimement leur demander de la remettre en ligne parce que voilà il n’y a pas forcément de modèles économique derrière, mais ça arrive donc il faut être vigilant à ça. 

 Une dernière crainte qui mérite peut-être des documentée, les données personnelles on en a rapidement parlé mais ça vaut peut-être le coup de s’attarder dessus. Evidemment on ne va pas mettre en Open Data des données qui livrent des informations sur la vie personnelle des gens avec leur nom, leur adresse, leur numéro de téléphone, etc mais le diable peut se nicher dans les détails. Il y a quand même des cas, par exemple aux États-Unis on a ouvert des données sur les trajets en taxi justement avec un parti pris qui était de fluidifier ce secteur là, faire en sorte qu’il y ait une meilleure attribution des trajets ou que ce soit plus rentable pour les entreprises grâce à l’Open Data. Et mine de rien on a fait marche arrière parce qu’en fait quand on a des données de déplacement sur des gros historiques et bien on peut finalement trouver quelqu’un, on peut se dire c’est là où il habite puisque c’est là où sa course a commencé, ou retrouver l’adresse de son de son lieu de travail, etc. Là-dessus quelles sont les bonnes pratiques, comment elles ont évolué, quel est l’état de l’art aujourd’hui sur la protection des données personnelles et ne pas se faire avoir comme ça sur des problématiques de protection de la vie privée. 

A ce jour, quelle est la situation de la protection des données personnelles ? 

C’est vrai que la plupart des sujets qu’on a évoqués, notamment des données agrégées qui sont faites à partir de données personnelles, ça n’exonère pas de faire attention en permanence, alors après la possibilité de ré-identification. Parfois une donnée peut avoir été anonymisée, agrégée mais finalement en recoupant avec d’autres informations on est capable de reconstruire et de faire le chemin inverse, pour quelqu’un qui chercherait parce que là il y a rien qui va se révéler, on ne va pas dire tiens Jean-Marc Lazard en tapant son nom je vais trouver son trajet taxi, en revanche quelqu’un qui chercherait absolument à savoir ça pour moi et qui aurait les compétences techniques, il pourrait effectivement dans certains cas. Donc il y a quand même des bonnes pratiques et souvent quand on a des initiatives de mise en ligne d’informations qui sont construites à partir de données personnelles, on fait appel en général à des connaissances, à des des pratiques statistiques bien connues, l’intérêt c’est de ne pas non plus effrayer les gens mais se dire que ça fait bien longtemps que des entrées de statistiques de masse, en France on va parler de l’Insee, maîtrise ces choses-là et savent qu’en fonction de la taille de l’échantillon, en fonction de ce qu’on mesure, en fonction des critères de connaissances du répondant on serait capable de ré-identifier, donc finalement les technologies ou les moyens existent donc il faut juste effectivement les intégrer dès le départ. Alors quelque part ce qui est rassurant, parce que j’ai pris tout à l’heure l’exemples d’une banque ou même autre parce qu’on participe à des projets d’opérateurs Télécom et qui donc utilisent des données de mesure de bornage GSM pour ensuite fabriquer des indicateurs sur les mouvements de population, ce sont des gens qui sont extrêmement surveillés, contraint là dessus. Donc il y a le savoir-faire, il existe maintenant c’est vrai que les nouveaux acteurs qui sont dans le domaine il faut qu’ils intègrent ça et ce n’est pas forcément naturel. Après l’impact de la protection de la vie privée notamment avec des règlements comme le RGPD peuvent contribuer à ça, maintenant le niveau d’application, le fait de savoir est-ce que m’a donné est utilisée, là on commence à toucher aussi des limites techniques, ce n’est pas parce que je veux savoir où mes données ont été utilisées, quand on en est à la troisième réutilisation d’une data et qu’on est au troisième utilisateur, troisième organisation, c’est extrêmement compliqué d’aller démêler, de retrouver toute la traçabilité du chemin d’une data donc c’est une question. C’est une question sur laquelle il faut être vigilant et après il y a des techniques donc soit sur la production de la data, soit sur les modalités de consommation. Typiquement nous quand il s’agit d’anonymiser ou de pseudonymiser une information, quand on est sur des logiques de localisation, parce que les États-Unis sont extrêmement avancés là dessus sur le partage de données et la mise en ligne de données extrêmement précise, vous pouvez savoir autour d’un bien immobilier grâce à de l’Open Data combien de crimes il y a eu à 100 mètres de chez vous, ça fait baisser le prix de la la maison, etc donc on est sur à partage extrêmement précis de ces informations là, souvent c’est au niveau du rendu. Par exemple on a l’habitude d’appliquer des solutions techniques qui vont permettre de flouter ou de manière aléatoire de déplacer donc l’utilisateur sait que l’information qui lui est partagée, un peu comme quand vous allez sur un site de location de maison ça ne dit pas précisément où elle est, donc il y a quand même beaucoup de techniques, les solutions existent mais après il faut les mettre en œuvre quand on quand on se met sur ce type de projet et qu’on décide de partager ces données. 

L’Union Européenne considère que l’ouverture des données est un vrai levier pour la lutte contre le changement climatique, quel est votre avis ? 

Alors la donnée, on l’a dit à plusieurs reprises, c’est de la connaissance et typiquement dans l’énergie on se rend compte, on parle de grid énergétique d’ailleurs, c’est un maillage avec des producteurs et avec en plus des sources de production de plus en plus variées, alors les principales on les connaît et puis après il y a des énergies locales ou renouvelables qui se développent. C’est des réseaux de transport, de la haute tension, de la moyenne tension puis jusqu’à nos compteurs, etc donc on voit qu’en fait c’est un maillage et tous ces acteurs qui sont extrêmement nombreux ont besoin, pour mieux fonctionner ensemble, de se partager des données donc en fait à ce stade là on voit que dans une période en tout cas, ça n’a pas toujours été le cas, quand on a pensé que l’énergie serait abondante, sans limite, etc, mais dans une période de tension il faut mieux travailler ensemble et encore une fois il faut comprendre ce qui se passe, échanger de l’information à travers ces données pour adapter. Donc là c’est vraiment déjà même pour le fonctionnement du système, pour qu’il soit entre guillemets moins consommateur, plus frugale, moins impactant on va dire, c’est nécessaire. Quand on se met zéro contrainte on y va et on ne se pose pas trop de questions. Ça ça a été un premier point. Deuxième point puisqu’on parle de changement de comportement finalement, qu’on appelle ça sobriété, frugalité, tout ce qu’on veut, en tout cas qu’on fasse attention à la façon de consommer, l’individu ou autre acteur comme une société par exemple, ces entreprises ont besoin elles de bien pouvoir mesurer, comprendre aussi quel est leur impact. Parfois je peux avoir des fausses bonnes idées, j’éteins la lumière en fait ça a peut être zéro impact versus d’autres actions, donc tout ça se mesure. On voit que le partage de données, la mise à disposition de ces données là, pour peu qu’on puisse effectivement les interpréter et les rendre intelligibles encore une fois et compréhensibles par le plus grand nombre, c’est cette connaissance qui va impacter nos comportements et surtout le comportement des gens auprès de qui on achète des biens et des services au quotidien. Nous on le mesure, on travaille beaucoup sur des projets auprès d’acteurs de l’énergie, producteur ou distributeur d’énergie, et on voit la demande pour la donnée énergétique qu’on mesure en nombre d’appels sur les plateformes, augmenter de jour en jour, enfin de semaine en semaine car on ne la mesure pas au quotidien. Il y a un vrai appel d’air, une vraie demande pour de la data énergétique venant de secteurs extrêmement variés, de l’opérateur de mobilité nouvelle de trottinette en passant par les énergies simples classiques, évidemment les pouvoirs publics, tout le monde a besoin de cette connaissance pour ensuite se baser là-dessus et faire évoluer son mix énergétique, être capable de mesurer mon impact, etc donc c’est une des raisons pour laquelle c’est clé. 

Un deuxième aspect c’est quand on parle de données par rapport à l’énergie ce n’est pas que la donnée énergétique.  En fait, l’énergie, sa consommation c’est une traduction de l’activité humaine, tout ce qui est en tout cas sous notre contrôle, et évidemment il y a beaucoup d’autres données alternatives qui permettent de mesurer, c’est souvent le croisement entre les deux. Il y a plein de moyens de le faire mais typiquement des données Télécom qui me permettent de connaître les mouvements, la circulation des populations, rapprochées de ma consommation énergétique ça me permet d’anticiper des choses, d’analyser effectivement les corrélations, voir les causalités entre les deux et encore une fois de chercher des solutions. Donc il est clé dans des moments particuliers de tension, de crise, de transition et ça c’est vrai pour l’énergie, ça a été vrai pendant la période covid et ça sera vrai pour d’autres moments. Ça crée une capacité à faire circuler l’information, à trouver de bonnes solutions et du coup à rendre possible l’utilisation de tout un tas d’autres moyens technologiques qui sont du traitement grande échelle de la donnée, de l’algorithmique, etc, qui si cette connexion et ce partage n’existent pas, sont difficiles. C’est très sympa de faire fonctionner ça à petite échelle mais à la fin ça ne résout pas beaucoup de problèmes pour le plus grand nombre. 

Au-delà du partage des données, quelles sont les conditions nécessaires pour que le système d’Open Data fonctionne correctement ? 

C’est mettre autour de la table et surtout engager le mouvement pour un maximum d’acteurs, parce qu’au départ ça paraît simple à raconter, on imagine, alors ce n’est jamais simple à faire parce qu’il y a tout un tas de lourdeur, de lenteur mais ce n’est pas très compliqué pour des gros acteurs qui produisent, qui distribuent de l’énergie, de se mettre en mouvement, de mieux travailler ensemble donc c’est déjà affectivement un premier bénéfice, après si on veut vraiment emmener tout l’écosystème ça veut dire que si on prend à l’échelle par exemple du bâtiment dans lequel on se trouve, quelque part on va consommer de l’énergie et donc avec des datas associées avec quelqu’un qui gère ce bâtiment, peut-être des gens qui sont vigilants à la consommation aussi et la mise en place de service sur la gestion technique du bâtiment, etc, donc on voit qu’il y a tout un écosystème et là quand on parle de gestion technique du bâtiment c’est la PME du coin qui elle-même aura un service informatique ou une équipe data pour traiter ça. Donc ça veut dire qu’il y a tout un tas de maillons qui sont en train de se transformer, qui fait qu’à un moment donné on ne parlera peut-être plus de Data, mais peut-être que le gestionnaire technique de ce bâtiment dans quelques années sera capable d’avoir des informations extrêmement précises sur l’impact de ces actions, des recommandations intelligentes pour que l’impact de notre activité humaine et de ce bâtiment soit moindres. C’est un peu un exemple trivial, mais on voit que le chemin est long, entre les données de la production et ça et donc il y a toute une transformation à faire au sein de cette filière et puis de toutes les autres ou évidemment le sujet est pertinent quoi. 

Concrètement quelles sont les interfaces et les étapes nécessaires au partage et à l’utilisation des données ? 

Très bonne question parce que là on parle un peu d’une philosophie générale, alors un peu plus de cas concrets, de bénéfices, tout ça il faut le mettre en œuvre et puis que l’utilisateur final dans son quotidien comme je disais au début, puisse utiliser mais avant de pouvoir utiliser il faut comprendre et puis avant de comprendre il faut trouver donc il y a quand même, si on fait un peu une analogie avec la logistique c’est ce dernier kilomètre de la data avant qu’elle puisse être utilisée, comment on fait. Déjà tout ça ne remet pas en cause les usines à données, la fabrique des données c’est les systèmes d’information quels qu’ils soient donc les progiciels métiers, les plateformes IOT, etc donc à partir de là on va ensuite rendre visible cette donnée pour le plus grand nombre. Très concrètement en fait et on n’est pas encore là, ça commence à l’être dans certains secteurs et pour certains types de données mais on doit pouvoir accéder à la donnée et c’est la comparaison ou l’analogie que je faisais au début de notre discussion, comme avec n’importe quel moteur de recherche sur Google. Donc quand je dis aujourd’hui on est capable dans une entreprise, une organisation publique mais de la même manière aussi à l’extérieur sur un site internet, on tape sur un moteur de recherche, on trouve des contenus ça doit être la même chose pour la donnée. Donc quelque part si mon sujet c’est de dire je cherche des datas sur la production énergétique éolienne en France, je dois pouvoir taper sur un bon moteur de recherche données publiques éolienne France et assez logiquement, et là je pense que ça sera le cas parce que je connais le sujet, vous allez tomber sur un portail data d’une agence énergétique française si vous êtes en France et vous allez tomber sur une liste, un catalogue, comme aujourd’hui vous avez une liste de réponses sur votre moteur de recherche et puis après vous descendez, vous trouvez la réponse ou le lien qui vous paraît le plus intéressant, là vous allez avoir un certain nombre de ressources que vous allez pouvoir affiner comme sur un catalogue de vente en ligne, est-ce que vous voulez des données françaises, européennes, est-ce que vous voulez de l’éolien comme ci, comme ça et puis à un moment donné vous allez cliquer sur ce lien. C’est là que vous allez tomber en général, on revient un peu à nos bonnes pratiques de tout à l’heure, sur trois modes de consommation. Si moi je veux consommer de la donnée brute au sens je veux télécharger un fichier, je vais pouvoir cliquer sur un lien Télécharger un fichier dans un format standard CSV ou autre, si je suis plutôt un développeur qui a envie de nourrir de manière automatique et ne plus y revenir mes applications métiers parce que cette information là permet à mes algorithmes de prendre des décisions, je vais avoir une API au même endroit, c’est un onglet différent finalement, et si en fait je cherchais juste une information je vais peut-être juste accéder à une courbe ou un graphique ou une carte en fonction de la représentation qui me donne cette information là. 

Donc c’est comme ça que ça se passe et effectivement petit à petit, comme le web s’est construit pour les autres contenus, petit à petit le web des Data est en train de se construire donc évidemment on n’y est pas, on ne peut pas répondre à la question avec une seule solution mais en tout cas on parlait de l’énergie là, ça commence à être le cas pour d’autres secteurs, peut-être pour changer un peu de domaine et puis montrer que ça ne concerne pas que des sujets de service public ou autre, un groupe comme Kering avec ses marques bien connues comme Gucci, si vous cherchez donner RSE ou SG Kering, c’est un grand groupe de luxe qui est très en avance là dessus, vous allez tomber sur un portail data et avec les interfaces que je décrivais, une carte pour voir l’impact environnemental de ces différentes activités, de sa supply chain, de ses tanneries de cuir dans tel ou tel pays donc c’est extrêmement précis et si vous voulez pour pleins de raisons différentes avoir la donnée brute, vous pouvez accéder au téléchargement des fichiers. Alors pourquoi vous pourriez avoir besoin de ces données brutes, soit parce que vous êtes peut-être un influenceur qui veut aller vérifier que les déclarations de ce groupe sont conformes dans les données qui sont publiées, vous êtes une ONG, vous voulez un peu challenger et c’est des cas concrets, ça crée du dialogue, ou alors vous êtes un créateur qui a envie de travailler pour une des marques du groupe Kering et de lui proposer des produits à moindre impact environnemental, si vous n’avez pas les datas brutes pour savoir que si j’utilise telle matière dans tel pays avec tel procédé, il y a peu de chance que j’ai l’information de connaître l’impact environnemental chiffré en euros. A partir du moment où l’un des leaders du marché partage sa base de connaissances, à la fin avec une addition assez simple je suis capable de dire je vous ai proposé un produit qui utilise tel ou tel procédé, qui a tel impact. Donc on voit qu’effectivement il y a toute une filière qui s’organise autour en l’occurrence d’un des leaders du marché qui souhaite avoir ce rôle de transformateur de grâce à la data. 

Comment les agences de partage de données fonctionnent elles ? 

Alors dans la méthodologie et l’organisation, il y a des pratiques quand même assez variées qui sont propres aux pratiques informatiques qui existent dans les groupes, qui se posent déjà pour pas mal de choses, on va avoir tendance à aller sourcer la donnée là où elle existe donc on ne va pas remplacer, parfois créer des projets ou des processus pour créer des données qui n’existaient pas, alors est-ce qu’on met tout au même endroit, oui je dirais qu’au sein d’une entreprise, je parle pas du stockage, la donnée brut encore une fois elle est fabriquée quelque part dans une bases de données, il ne s’agit pas d’aller tout rassembler car ça n’a pas tellement de sens de ce point de vue là. En revanche l’espace, le hub, le portail ou le catalogue de données que l’on va mettre en ligne pour l’interne comme pour l’externe, chez Kering par exemple c’est exactement le même outil, la seule chose c’est que si on s’identifie en tant que collaborateur je vais voir accès à plus de données avec peut-être des mises en forme et si je suis le grand public je vais avoir accès à une version qui est publiable pour tous. Mais c’est ça qui est important en revanche, c’est cet alignement, c’est que c’est deux faces d’une même pièce qui sont basées sur la même ressource et la même data. C’est ça qui fait l’alignement et la cohérence donc c’est pas juste une posture, c’est ça que je trouve assez remarquable chez des dirigeants d’un grand groupe dont on peut se dire qu’à la base ce n’est pas un groupe technologique, en tout cas dans son cœur de métier, c’est d’avoir compris que sa transformation elle passait sur l’alignement des trois parties prenantes que sont les collaborateurs, les parties prenantes externes, influenceurs, etc et les clients. Le point de départ de ce projet c’est quand des clients avaient entre guillemets du mal à avoir une réponse auprès des conseillers en boutique sur l’impact d’un produit et ils se sont dit mais en fait est-ce qu’on a cette donnée nous-mêmes et au fait quand on construit, quand on fabrique nos produits, est-ce que nos créateurs ont cette information là. Et ils se sont dit mais en fait ce qui est important c’est de rassembler au même endroit toute cette connaissance de base et après la façon de l’exposer c’est de l’exposer dans des formats peut-être un petit peu différents avec des granularités un petit peu différentes. Quelque part, avec un projet qu’on pourrait décrire de manière un peu technique ou technologique, c’est extrêmement fort en terme d’alignement de toutes ces forces, que tout le monde consomme la même information et finalement est embarqué dans le même mouvement. Je trouve cet exemple là assez novateur au-delà d’être un petit peu en avance sur les autres, c’est d’avoir lié data et technologies et transformation de son activité dans un monde de savoir-faire et de maison de luxe. 

Intégrer les données dans la chaîne de valeur des entreprises vous apparaît donc comme la meilleure manière de développer cette approche Open Data ? 

Au final la meilleure façon de faire ce n’’est pas d’avoir un process cloisonné pour le partage des données, la mise à disposition des données mais c’est vraiment que ça s’intègre dans la chaîne de valorisation interne des données. 

Oui complètement, c’est un process, il y a un terme qui recouvre pleins de choses différentes, on entend de plus en plus parler de Data gouvernance alors derrière ces termes là c’est aussi bien des process, c’est travailler moins en silo sur les sujets data, qui dit gouvernance dit favoriser effectivement l’autonomie mais avec des règles peut-être nouvelles mais claires, ce n’est pas forcément n’importe quoi, on partage peut-être pas n’importe quoi n’importe comment donc ça va complètement s’intégrer dans des process existants, faire évoluer des process existants, encore une fois pour favoriser la circulation de la donnée. Le but justement, soyons réalistes on travaille tous dans des organisations diverses et variées et on se rend assez vite compte qu’il y a toujours une donnée qui est vite copiée recopiée, recopiée et on se retrouve avec des sources un peu à droite à gauche, des espèces d’IT, des systèmes d’information bis, on parle de shadow IT qui se crée ici ou là, en fait une des vertus c’est de se dire on va simplifier et on va finalement en rendant plus visible plus transparent quelque part même en interne les démarches de mise à disposition des données, on se donne une chance que voilà cette single source of truth elle soit connue et que finalement on évite que des gens soient tentés d’aller chercher de la donnée ailleurs, à l’externe, en interne voilà et et d’interagir directement. Donc on a parlé d’ailleurs au début de mouvement Open Data ou quand on a créé la société Opendatasoft, on parlait de réseaux social de la donnée alors on ne dit plus trop ça parce que ça crée un peu de confusion, mais quelque part c’est un peu ça et chaque fois qu’il y a un portail de Data ou un nœud à hub de données qui se crée en interne en externe, on vient construire cet internet des données et c’est là qu’après les technologies d’Internet, c’est pas de la magie elles sont puissantes et elles permettent une fois que le contenu commence à exister et à être visible, les moteurs de recherche se mettent en en branle et on commence à pouvoir chercher dans une masse de contenu beaucoup plus importante, etc donc on en est là, on est dans ce moment de transition où le volume de données, sa diversité commence à être suffisamment intéressant pour que voilà ces hub de données, cette place de marché de données, chacun les appelle un petit peu de manière différente en fonction de son modèle et de sa place dans l’écosystème, commence à être le sujet du moment et surtout le sujet des prochaines années. 

Quelle évolution de l’Open Data dans les prochaines années ? 

Il y a deux aspects importants, il y a un aspect de traçabilité, je ne sais pas si c’est le bon terme, on commence nous à avoir des projets ou des clients assez avancés dans leur stratégie, une vraie stratégie de valorisation, de tracking finalement des usages et de se dire tiens je sais que cette donnée là a été reconsommée, consommée à travers une carte, consommée à travers un graphique, à travers une API, reprise n fois, voilà et sachant comme on le disait qu’une donnée plus une donnée en fait une autre, c’est assez subtil parce qu’il faut savoir que cette nouvelle donnée est issue de deux, cette traçabilité, ce graphe des données, c’est un vrai sujet aujourd’hui sur lequel, en tout cas les plus avancés en termes de projets de stratégie ou de gouvernance de données, sont. Donc on est très impliqué là dedans parce qu’évidemment en tant qu’apporteur de technologie on doit être aussi aux avant postes de ça. Deuxième sujet, on a parlé des moteurs de recherche, c’est une analogie peut-être un peu rapide mais c’est la réalité, il y a un peu un Graal que les uns et les autres recherchent de dire est-ce qu’il y aura quelqu’un qui va un peu préempter ça, comme Google a pu appréhendé le sujet de la recherche du contenu, notamment aussi grâce à un modèle économique qui l’a permis, de la publicité donc aujourd’hui sur la data il y a pas de sujets de régie publicitaire ou de modèles économique qui permettraient de développer des solutions massives en les finançant avec de la pub donc voilà où est-ce que ça va. Je pense qu’effectivement il y a une attractivité extrêmement forte vers tous les catalogues un petit peu unifiants de la donnée il y a pas tout, typiquement nous Opendatasoft c’est un sujet sur lequel on est présent puisqu’au-delà d’une solution on agrège plus de 28000 sources de données sur nos propres solutions, on a un portail public donc on est un des acteurs en pointe là-dessus, j’espère qu’évidemment ça nous réussira d’avoir pris le parti aussi d’agréger les données publiques sur nos propres solutions mais c’est vraiment un des sujets. Aors on voit qu’effectivement il y a beaucoup de discussions, d’envie autour de ça et de tout type d’acteurs. C’est-à-dire que c’est ça aussi qui nous fait penser que c’est un peu le sujet de demain, c’est que nous on est impliqué dedans, des gens comme Google le sont naturellement, mais d’autres acteurs de la technologie qui n’ont rien à voir avec le partage ou l’ouverture de données disent mais j’aimerais bien aussi mettre à disposition ces réservoirs de données publiques à travers mes solutions donc c’est un vrai sujet. 

Des exemples de futurs acteurs de la data ? 

Tous les gros acteurs de Marketplace technologies donc si je veux vexer personne je peux dire AWS, enfin Amazon, Microsoft et plein d’autres players peut-être un peu moins connus mais qui sont dans le champ de la technologie, tous les acteurs du cloud parce que quelque part c’est aussi les chaînes de valeur qui remontent, c’est un peu comme l’histoire de contenu et des tuyaux, il y a eu des tuyaux puis après des contenus et puis c’est ceux qui fabriquent les contenus aujourd’hui qui semble tirer les fils de tout ça. C’est un peu pareil ici, il y a des gens qui fabriquent, qui exploitent des Data Centers puis des gens qui ont toute une infrastructure pour aller compter ça de manière très performante sauf que petit à petit on sent qu’un jour la valeur sera dans celui dans le service de consommation de cette donnée plus que dans sa fabrication. Donc c’est là qu’on voit que les acteurs qui sont plutôt dans les couches infrastructures, très stockage et traitement en masse, se disent je vais peut être pas rater le train et ça serait bien que je sois tout de suite présent sur la partie usage et contenu. 

Pour conclure, une précision à apporter ? 

On a parlé d’à peu près tous les sujets mais j’aimerais bien ajouter si ça n’a pas déjà transparu dans mes propos qu’il ne faut pas avoir peur de la donnée. Nous on s’est rendu compte que quand on employait ce terme-là ça créait des réactions un peu anxiogènes pour différentes raisons, donc l’anxiété liée aux données personnelles et puis de l’autre côté des fois l’anxiété parce qu’on a l’impression de rien y connaître. Je pense qu’aujourd’hui, j’aime bien dire la donnée c’est le nouveau contenu, c’est de la connaissance”. Pour la donnée je pense qu’on est à un moment où peut-être qu’on arrêtera d’ailleurs de parler de données, on parlera sans dire ce mot là, de différents usages et je crois qu’effectivement c’est assez prometteur donc c’est plutôt un message d’optimisme on va dire, c’est un vrai levier de changement et puis pour aider à résoudre, on a plusieurs exemples, on a l’énergie, on a pris le covid, ça nous a montré à quel point ça nous aidait collectivement à trouver des solutions en tout cas c’est ce à quoi moi je crois et j’essaie de contribuer y compris avec notre société Opendatasoft, c’est de favoriser cette intelligence collective, sans grandeur particulière et beaucoup de choses à faire en plus, mais voilà c’est en ça je pense qu’on peut être collectivement des acteurs d’un changement positif et aussi face à des crises auxquelles on fait face en ce moment. 

Pour approfondir ses connaissances en Data & IA, un livre, un article, une vidéo, un site à nous recommander ? 

Alors il n’y a pas mal de choses mais ce qui me vient à l’esprit spontanément c’est un institut en Angleterre qui s’appelle l’Open Data Institute qui un peu comme nous avec Opendatasoft ne concerne pas que l’Open Data public, ils ont été précurseurs et donc ils ont un site très bien fait avec beaucoup de ressources, il a été créé par par l’administration britannique au départ mais ensuite ça a beaucoup impliqué aussi bien le public que les entreprises, donc il y a beaucoup de recherches académique justement sur la prospective, les modèles économiques, beaucoup d’exemples et de tutoriels, je n’invite à aller voir une partie particulière de ce site mais voilà y aller, l’Open Data Institute, vous trouverez ça facilement et beaucoup de ressources très intéressantes sur ce qui existe et surtout de prospective. Une deuxième chose que je pourrais partager, ce n’est pas pour faire de l’auto promo mais nous on a eu la chance de pouvoir organiser des conférences donnant la parole à beaucoup d’acteurs qui se sont engagés, quand je dis acteur, entreprise, administration qui se sont engagés dans des projets parfois très importants et on a organisé des conférences où ils sont venus témoigner donc conférence qu’on appelle Data Onboard donc si vous allez sur une chaîne vidéo YouTube et vous cherchez Data Onboard 2021 qui était la dernière édition, vous aurez des dizaines de témoignages de chief data officers de banque, de responsables data d’administration de la ligne de Paris de la BPCE, donc c’est intéressant d’entendre ces personnes dire pourquoi ils l’ont fait, ce qui a marché, ce qui n’a pas marché, où ils se projettent, probablement que ça vous parlera encore mieux parce que vous y retrouverez de par leur métier ou leur secteurs d’activité. 

Jean-Marc merci beaucoup. 

Merci beaucoup Caroline, c’était un plaisir d’échanger sur notre passion de la data et puis aussi toutes les belles années qu’on a devant nous autour de ce sujet. 

J’espère que cet épisode vous a plu on se retrouve très bientôt pour un nouveau numéro de The Bridge. 

 

RESTEZ INFORMÉ

ABONNEZ-VOUS A LA NEWSLETTER THE BRIDGE.

The Bridge by Artefact

TOUS NOS ÉPISODES THE BRIDGE