MÉDÉRIC CHOMEL

Transcription de l'entretien

MÉDÉRIC CHOMEL

VP Data, AI & Automation chez Orange France

"Gouvernance de la donnée et diffusion d’une culture de la data : fondations d’une transformation à grand échelle."

Bonjour je suis Caroline Goulard, j’ai créé deux entreprises dans le domaine de la visualisation donnée. ça fait 10 ans que je travaille à créer des ponts entre les humains et les données et je suis heureuse d’être avec vous pour un nouvel épisode de The Bridge le média d’Artefact qui démocratise la culture des données et de l’intelligence artificielle. 

Aujourd’hui on reçoit Médéric Chomel. Médéric bonjour. 

Bonjour Caroline.  

Alors Médéric tu travailles chez Orange France. Est-ce que je peux te laisser te présenter ?

Effectivement je suis en charge de la data de l’IA et de l’automatisation chez Orange France depuis deux ans, ça fait 10 ans que je suis chez Orange où j’ai fait plein de métiers, au départ j’étais ingénieur et puis je suis très vite tombé sur le pilotage de grandes transformations qui mêlent à la fois l’humain, le business et la technologie et ce qui me passionne c’est moi aussi, créer des ponts entre ces trois domaines qu’on oppose trop souvent dans nos entreprises. Et je pense qu’aujourd’hui toutes les transformations font appel à ces trois briques. J’ai une particularité c’est que j’ai travaillé dans plusieurs géographies chez Orange, j’ai commencé chez Orange France et puis au Sénégal et en Jordanie donc c’est aussi les joies de ces grands groupes où on peut bouger à l’international, découvrir d’autres cultures, découvrir d’autres façons de faire, de travailler et donc qui enrichit beaucoup quand on revient sur d’autres géographies.

Quelles transformations as-tu observées depuis 10 ans dans le domaine de la data et l’Intelligence Artificielle ? Où en est-on aujourd’hui ? 

Les données ont toujours été au cœur des systèmes d’information mais ont souvent été vues comme une couche de facilitation qu’il fallait gérer mais qui était plutôt une contrainte et en fait c’est assez récemment qu’au-delà de la contrainte, on s’est dit mais ces données on peut aussi en tirer de la valeur. Et donc depuis quelques années, à travers les différentes phases qu’on a pu connaître, les fameux Big Data et puis maintenant les transformations plus intelligence artificielle, la question de la valorisation des données et de leur utilisation s’est vraiment posée. Alors effectivement on a commencé quasiment tous, c’était mon cas quand j’étais au Sénégal en 2012, par se dire on va essayer de tout mettre au même endroit. Alors c’était la grande folie des Data Lake et donc on mettait un peu toutes les données comme ça en se disant si on les met tout au même endroit finalement on va pouvoir en faire de la valeur. On y a tous passé beaucoup de temps, beaucoup d’énergie, un peu d’argent aussi et finalement on n’a pas forcément réussi à toujours en tirer la bonne valeur et je pense que la grande différence qui se passe aujourd’hui c’est qu’on en est vraiment à une étape où on en tire toute la valeur. 

Et qu’est-ce qui s’est passé vraiment de différenciant ? C’est une maturité technologique et opérationnelle qui nous permet vraiment d’aller inclure dans tous nos processus métiers de la donnée de l’intelligence artificielle. Alors peut-être quelques exemples mais qui reflètent ça, il y a 10 ans quand on pilotait une activité de type installation client, les données étaient vues comme des lignes de facturation, des lignes de pilotage de prestataires mais on n’avait pas forcément l’idée native de se dire je peux aller plus loin avec ces données, pour aller les rapprocher de données client pour savoir quand je suis en retard pour livrer un client, il va m’appeler et donc je peux prédire la façon dont le client va m’appeler pour éviter un appel en le traitant proactivement. Je peux aller également mieux piloter mes prestataires pour différencier la rapidité d’intervention en fonction de la sensibilité du client et on voit en fait que cette donnée maintenant, on n’est plus juste là en se disant, je la mets je verrai ce que j’en fais, mais plutôt quelle est la problématique métier que je peux avoir, à laquelle je veux répondre et donc la donnée comment elle contribue et comment elle m’aide à y répondre. 

Comment le Groupe Orange a évolué depuis une décennie pour réussir à accélérer cette transformation data ? 

Alors quand on a un grand groupe le problème c’est l’équilibre entre le respect des grandes gouvernances d’entreprises, l’innovation et l’agilité pour être rapide à donner de la valeur et je pense que c’est quelque chose sur lequel, ça a beaucoup été tiré par les évolutions des systèmes d’information, mais sur lequel l’agilité dans toutes ses formes, qu’elles soient les modèles Spotify, les modèles safe, les modèles large Scrum, tous ces modèles là c’est pas très important, mais on cherchait à contrebalancer ce besoin de respect des grandes pratiques et des grandes gouvernances d’entreprises et apporter vite de la valeur à nos clients. Alors typiquement sur la data et l’IA, c’est quelque chose que nous chez Orange on utilise énormément, alors on est en modèle safe mais bon n’importe quel modèle aurait apporté la même valeur, l’idée c’est de pouvoir très vite impliquer le métier dans la bonne priorisation, d’être très rapidement en capacité de mettre quelque chose dans la main des utilisateurs pour tester la valeur et apprendre. Et ça quand on a un groupe comme Orange c’est quelque chose qui est pas natif. On avait toujours beaucoup plein de raisons d’hésiter, de questionner, de refaire des business cases et là finalement avec un modèle agile, on est capable de prendre plus de risques, d’essayer plus vite et pourquoi pas d’échouer, mais aussi de réussir et donc aujourd’hui on arrive à être sur des durées de quelques semaines, quelques mois pour aller mettre quelque chose dans les mains d’un client qu’il soit interne ou externe. 

Pour ceux qui ne sont pas familier avec le terme que vous venez d’employer, pouvez-vous nous expliquer ce que signifie le “modèle safe “ ? 

Alors le modèle safe c’est un modèle d’Agile coordonné à l’échelle, donc qu’est-ce qu’on entend par l’agile cordonné à l’échelle, l’agile unitaire est assez simple à comprendre : c’est je gère un produit, alors mon produit c’est une application, c’est un site web et là je m’organise en mode Agile. Donc là je vais avoir des modèles de Scrum, de gestion de tâches qui vont faire que pendant une période donnée, un sprint, je vais délivrer un incrément de valeur. C’est facile quand on est une équipe, ce qu’on appelle une pizza team, une équipe de 8 personnes, là on sait gérer. Le problème c’est quand on fait 5, 10, 100 de ces équipes et qu’on doit les coordonner et donc c’est là où on a besoin d’un modèle supplémentaire pour les coordonner et passer à l’échelle. Et donc c’est là où nous on utilise le modèle safe qui est un framework qui permet de définir les règles de gestion et de gouvernance pour s’assurer que toutes ces équipes vont dans le même sens. Et donc on va parler d’équipe qui vont dans des trains, voire des grands trains qu’on appelle des large solutions, voilà toute une terminologie mais in fine c’est vraiment s’assurer qu’on va tous dans la même direction, qui est maximiser la valeur apportée aux clients. 

Comment parvient-on à diffuser cette culture de l’IA à l’ensemble des collaborateurs ? 

Alors effectivement le premier grand sujet c’est probablement l’acculturation, c’est-à-dire aujourd’hui le sujet des données et de l’IA, et pas seulement dans le monde de l’entreprise, est un sujet mal connu et mal compris. Malheureusement aujourd’hui dès qu’un article sort dans la presse sur l’IA, ça va être est-ce que l’IA va remplacer mon travail, est-ce que l’IA va tous nous manger demain, et est-ce que la voiture autonome va écraser tout le monde dans la rue. Pour avoir une discussion sereine et dépassionnée sur l’IA il faut vraiment passer par cette étape d’acculturation. Nous on a vraiment cette conviction que nous devons acculturer le plus largement. Je pense que cette conviction là elle devrait être bien plus large d’ailleurs, dans nos écoles, en grand public, d’être plus proactif sur expliquer ce que c’est ou ce que ce n’est pas et au-delà d’avoir acculturer massivement, il faut aussi accompagner concrètement les gens qui vont travailler avec l’IA. Donc nous par exemple quand un Manager va être confronté à un cas d’usage sur l’IA, on conseille fortement des formations de deux jours sur lesquelles là il va être mis en situation de comprendre ce qu’est l’IA, comment on fait un cas d’usage d’IA, comment on accompagne les transformations technologiques, les transformations de métiers, quels sont les risques associés et donc beaucoup de conseils qui vont l’aider derrière dans la mise en œuvre. Et puis dernier point on a mis en place des rôles spécifiques dans l’entreprise de personnes qui vont être des partenaires tout au long de cette utilisation de la data au quotidien pour accompagner, réassurer, former, donner les ressources puisqu’effectivement c’est quelque chose qui n’est pas naturel. 

Quels sont les métiers qui sont les plus impactés par cette transformation IA ? 

Alors je pense que les métiers les plus concernés sont fondamentalement les métiers qui sont face aux clients, pourquoi parce qu’une grande majorité de nos cas d’usage a vocation à améliorer la relation qu’on a avec nos clients. Et donc typiquement, je vais prendre quelques exemples mais aujourd’hui dans nos boutiques Orange, dans le CRM donc l’interface du vendeur pour voir la fiche du client, nous poussons des recommandations qui sont issues d’un travail de l’IA. Donc c’est l’IA qui pour certains clients va recommander des produits et des services que l’on pense être pertinents pour ce client. Et bien là le conseiller en boutique est directement confronté à cette recommandation de l’IA. 

Comment on accompagne la transformation d’un métier de vendeur qui par nature avait pour vocation lui-même de comprendre le client pour savoir quoi llui proposer, avec l’assistance de l’IA qui vient lui dire quelque chose de nouveau. C’est quelque chose qui n’est pas du tout naturel puisque un conseiller son habitude c’est, je rencontre un client, j’ai une discussion avec lui et à travers cette discussion et cette découverte de mon client je vais découvrir ce qui est le plus pertinent, et là on vient lui dire, en fait sache que nous il y a une IA là, il y a un petit truc qui a regardé toutes les données des clients et qui fait des choses que toi tu ne peux pas faire en direct avec lui, c’est à dire cruncher plein de données car tu vas pas t’amuser à prendre 150 factures du client pour comparer ses factures, mais lui va le faire beaucoup plus vite à l’échelle, il va te donner l’assistance pour toi. Tu le prends, tu ne le prends pas c’est ta décision mais sache que tu as cette assistance à la vente. Une transformation comme ça chez nous ça a pris 7 mois, 7 mois où on part sur 8 boutiques puis 35 boutiques et maintenant 600 boutiques. C’est 8 mois où on mesure en permanence l’acceptation par les conseillers, on change, on adapte les discours, les formations et on accompagne à l’échelle les milliers de vendeurs qui sont confrontés, qui utilisent ça aujourd’hui. Donc tous ces métiers vraiment en proximité du client sont très impactés par l’IA. De la même façon un autre métier très impacté, c’est les gens qui vont chez nos clients pour installer des produits et des services. Et bien là on va utiliser aussi beaucoup d’assistance liées à l’IA pour les aider à mieux faire leur travail. Donc on a déjà mis aujourd’hui en production des cas d’usage, on va faire de la reconnaissance visuelle de photos avant après chaque intervention, pour lui dire c’est bon là tu n’as rien oublié, ou alors attention tu as oublié de rebrancher ce fil, ce qui nécessiterait qu’il revienne donc tout ça a vraiment aidé le geste métier. Ca pareil beaucoup d’accompagnement, donc voilà tous les métiers vraiment en proximité du client sont très très impactés par l’IA aujourd’hui. 

Quel est ton avis sur la façon dont les applications IA doivent être utilisées ?  

Alors premier niveau de réponse, notre conviction chez Orange c’est que le dernier mot est à l’humain et si on veut avoir la confiance de nos collaborateurs et de nos clients c’est essentiel. Et donc c’est un engagement que nous avons pris formellement chez Orange France qui est voilà le dernier mot est toujours à l’humain et pas à la machine. Au-delà de ça c’est dans notre intérêt collectif et commun d’avoir une recommandation pertinente et donc typiquement pour un vendeur son objectif c’est de vendre le plus et donc on n’a pas besoin de le forcer à l’utiliser puisque si lui voit que ça va augmenter sa part variable à la fin du mois et bien il va le faire naturellement et donc on va beaucoup plus jouer sur la carotte que sur le bâton. C’est-à-dire qu’on va essayer de rendre le plus possible l’IA pertinente et utile à l’humain pour qu’il l’utilise mais on ne forcera pas, on ne contraindra pas, on ne mettra pas de pénalité si c’est pas utilisé puisque ça ne rentre pas dans nos convictions. 

Quel rapport entretiennent les consommateurs avec les moteurs de recommandation basés sur l’IA, qui leur proposent des nouveaux services ?

C’est une très bonne question. Quand on va en boutique, en fait très souvent maintenant les vendeurs montrent leur écran au client d’accord. Et donc moi j’étais persuadé que quand le client allait voir une recommandation Deezer par exemple, on propose l’option Deezer à nos clients, moi je me suis dit mais si les clients voient ça ils vont tout de suite se dire mais vous m’espionnez, comment vous savez ça, bon en fait paradoxalement quasiment pas. Quelques vendeurs m’ont posé la question sur les milliers et on a encore aucun client qui nous a posé la question. Ceci étant dit je pense que le niveau de maturité, de compréhension va changer et que le niveau de questionnement va changer et là-dessus on est vraiment sur pour moi on va dire le RGPD 2.0 puisqu’on a beaucoup vu la protection des données par certaines règles, très contraignantes mais au final pas toujours extrêmement utiles et comprises du client final, à quelque chose qui doit être utile et compréhensible de l’utilisateur. Et on voit beaucoup de démarches, on a beaucoup d’entreprises, je pense à Décathlon aussi qui est très proactif sur le sujet, d’essayer de communiquer et de montrer aux clients quelles données on utilise, pourquoi faire, mais ça demande un effort. Un des chiffres importants par exemple qui pour moi montre les limites du RGPD c’est le consentement. On est tous aujourd’hui quand on va sur Internet ok ou pas ok pour continuer, aujourd’hui le monde se scinde en deux : les gens qui cliquent ok sur tout, 75% des gens, les gens qui cliquent ok pour rien 24% et 1% des gens qui vont aller paramétrer ça je veux bien, ça je ne veux pas On voit bien que ce 1% il est malsain, il devrait être beaucoup plus large puisque finalement accepter que pour que le site soit meilleur, que pour que en fait vous me poussiez des recommandations personnalisées j’accepte les cookies ou autres formes d’opt-in c’est compréhensible, dire en fait je ne veux pas que vous utilisez mes données pour les vendre à une tierce partie, pour que TikTok fasse plus d’argent quand il vend de la pub, là voilà mais aujourd’hui on ne démêle pas, on met tout dans le même dans le même sachet. Donc je pense que l’avenir il est là, il est vraiment que les gens et le niveau de compréhension et d’acculturation nécessaire pour aller mettre l’effort de dire ça je veux bien, ça je ne veux pas.

Sur quoi travaillez-vous en ce moment chez Orange, quels sont vos enjeux en termes de stratégie des données et de gouvernance ?

Je pense qu’un des grands enjeux maintenant de l’intelligence artificielle c’est la démocratisation. En fait pour beaucoup d’entreprises, nous sommes tous passés par une phase de centralisation, d’équipes assez expertes qui allaient faire des grands cas d’usage très transformant comme ceux que je vous ai cités là, qui nécessitent vraiment des équipes très expertes, très formées, très outillées et très accompagnées mais qui finalement touchent beaucoup de métiers mais sont très centralisés, à finalement une approche beaucoup plus as a service, beaucoup plus on va dire démocratiser mass market de l’IA. Ca veut dire quoi, ça veut dire que demain potentiellement quelqu’un dans le métier qui a un besoin spécifique pourra utiliser l’IA sur étagère tout seul. Un exemple simple, je gère un immeuble chez Orange, parce que chez Orange on a pas mal d’immeubles etc, je reçois des factures d’EDF, Enedis, Veolia etc, je veux vérifier la pertinence de ces factures mais j’en ai beaucoup parce que j’ai pleins d’immeubles et bien demain je fais mon petit IA où je mets mes documents. Je dis trie moi les factures qui te semblent justes, pas justes, trie moi par date ces factures et finalement fais-moi des consolidations pour que je comprenne. Donc toutes ces questions là où aujourd’hui en fait on dépend d’équipes centrales, d’équipes dédiées, en fait je peux être autonome pour le faire parce que j’ai le bon niveau d’acculturation, de formation, j’ai les bons outils et puis les données ont été assez préparées, documentées pour que je puisse les trouver facilement. 

Comment avez-vous déployé chez Orange ce projet d’envergure de  gouvernance des données ?

Tout à fait oui, parce que finalement dire aujourd’hui je fais le Amazon de la donnée où quelqu’un cherche un terme de recherche et je lui trouve la bonne donnée, nécessite derrière d’être sûr que j’ai bien documenté, référencé, catalogué mes données. Typiquement quand chez Orange vous cherchez aujourd’hui une donnée de type identité client, chaque client a plein d’identités qui sont présentes dans plein de tables de données, si j’ai pas fait cet effort d’avoir dit en fait l’identité du client le bon référentiel c’est celui-là et c’est cette donnée qu’il faut remonter dans mon outil de recherche, l’outil de recherche ne sera pas utiliser puisque personne ne s’y retrouvera. Et donc c’est tout ce travail de fond de documentation, de gouvernance de la donnée que, voilà je pense qu’on est tous en train de faire aujourd’hui. Donc par rapport à ce que je disais au début sur l’approche Big Data je mets tout dedans et un jour on s’en sortira, là on a une approche totalement différente c’est-à-dire qu’on va dire, on va regarder de quoi nos utilisateurs finaux ont besoin et on va tirer tout le trait jusque au système d’information qui l’a produit, pour être sûr que de bout en bout ça fasse sens, ce soit bien monitoré, supervisé, de qualité et que in fine quand je cherche identité client dans mon moteur de recherche et bien j’ai une donnée qui soit propre, documentée encore une fois accessible. Donc vraiment cet aspect de gouvernance de la donnée. Il a jamais été aussi prégnant, je pense qu’on investit tous énormément de temps, d’effort et d’argent dans ce sujet depuis des années. J’espère que dans les prochains mois, années on verra le bout, je pense qu’une des dernières transformations qu’il nous reste à passer sur ce sujet c’est finalement dans un monde de plus en plus SAS sur les systèmes d’information qu’on utilise et donc de plus en plus standardisé sur nos SI source et bien de remonter la standardisation des modèles de données dans les SI source. Sans vouloir être technique, l’idée étant de se dire on passe tous beaucoup trop de temps à transformer la donnée pour faire quelque chose qui fait sens et finalement pourquoi on le fait tous individuellement alors qu’on pourrait remonter ça dans les SI qui produisent des données, de type outils de facturation, outil CRM et d’avoir des modèles de données très standardisés qui permettront à tout le monde de gagner énormément de temps. 

Chaque entreprise utilise ses propres indicateurs de gouvernance, mais comment collaborer efficacement ? Faut-il imposer des normes et des modèles ?

C’est tout l’enjeu d’un modèle démocratisé. C’est à dire que comment je rends à la fois la donnée la plus décentralisée possible dans sa gestion et sa définition et son accès, tout en évitant la multiplicité des sources et des vérités. Là-dessus on a plusieurs éléments aujourd’hui qui nous permettent d’y arriver. Le premier c’est qu’on a tous maintenant de plus en plus unifié nos plateformes de gestion de données, qu’elles soient sur du cloud privé ou du cloud public, finalement d’avoir une seule plateforme ça nous fait gagner énormément de temps puisque ce que tu décris était très lié aussi à, j’ai mon gisement, je le sers de la façon que je veux. Si maintenant la donnée elle est au même endroit pour tout le monde, finalement cette liberté là existe beaucoup moins. Donc l’unicité des Data plateformes, par sa nature, permet ça et donc au-delà de ta plateforme unifiée, ce qui est important aussi c’est d’avoir une gouvernance fédérée très forte. Et ça c’est quelque chose qui est assez contre nature mais qui s’explique assez bien au métier, c’est à dire je te donne une liberté très forte d’accès à la donnée, par contre je t’impose à posteriori ou à priori des règles de gestion très fortes. Exemple concret, encore une fois pour le RGPD, on a des règles de compliance où on doit vérifier que si quelqu’un veut accéder à une donnée c’est pour une finalité qui est cohérente avec cette donnée, typiquement si je veux améliorer le service que tu reçois sur la fibre, je n’ai absolument pas besoin d’avoir les données sur le mobile. Typiquement ça c’est une règle de compliance, donc tu ne peux pas demander un accès à la donnée mobile si c’est pour travailler sur la fibre. Aujourd’hui ce qu’on fait d’un point de vue de gouvernance fédérée, c’est qu’on oblige quand quelqu’un demande l’accès à donner de remplir un petit formulaire et dire j’ai besoin de cette donnée pour faire ça. Et là nous on fait confiance a priori, c’est-à-dire qu’on dit ok tu as créé cette donnée donc on te crée cette table de données, cet environnement de travail dans lequel tu vas retrouver les données, tu vas pouvoir travailler donc là on fait confiance a priori. Par contre on a des audits derrière et on va vérifier que effectivement tu respectes bien ce qui a été écrit sur le dictionnaire. Et donc voilà c’est une gouvernance qui est j’impose des règles sur lesquelles je fais des vérifications mais je libère l’usage, c’est vraiment cette logique d’équilibre qui permet de redonner de la confiance dans un usage in fine par l’utilisateur, la facilité d’utilisation, mais un contrôle, une imposition de règles. 

Quelles sont les fonctions en charge de cette nouvelle gouvernance des données ? Quelle évolution des métiers en résulte-t-il  ? 

Il y a plusieurs métiers qui d’ailleurs ont plein de codifications différentes suivant les entreprises, alors la data gouvernance elle se comprend assez bien, c’est vraiment un peu cette tour de contrôle qui définit les règles au global mais qui sont vraiment des règles d’entreprise validées au plus haut niveau. Donc nous par exemple les droits d’accès aux données et certaines règles de gestion de données sont vraiment validées au plus haut niveau de l’entreprise puisqu’on considère que ça engage la responsabilité de l’entreprise et c’est essentiel. Derrière ça comment accompagner des métiers pour qui ça peut être un petit peu abstrait ces règles et donc là dessus on a vraiment aujourd’hui une organisation à la fois de gens qui gèrent des domaines de données ou des Data owners, ou des domaines owners, encore une fois plusieurs terminologie sur une entreprise, mais on a tous cette logique de gens qui sont vraiment des propriétaires d’un domaine de données c’est à dire que vraiment ils s’en sentent responsabilisés, pour savoir où est-ce que je mets mes investissements pour la mettre en qualité, finalement quel est mon patrimoine clé, mes golden data dans ce domaine là, s’il y a un débat sur le KPI il doit être fait comme ça ou comme ça c’est moi qui instruit le sujet, qui prend la décision, et donc ces domaines owners là, ils ont une vision sur leur périmètre de données. Et donc finalement moi métier si j’ai une question sur ce domaine là, je sais que je peux aller vers toi pour te demander ça. Et puis il y a dans l’autre sens je vais partir d’un métier, j’ai plein de domaines, je ne vais pas faire le tour de tous les domaines parce que sinon ça me prendrait trop de temps, et j’ai besoin des gens en proximité qui eux sont plutôt capables de m’orienter sur ça. Et donc là c’est plutôt des référents data, des partenaires data, encore une fois plein de noms, qui vont être proches des métiers pour pouvoir les guider dans ce monde là. Et puis encore une fois beaucoup de formations, de matériels disponibles pour accompagner les gens au quotidien. 

Quel est ton avis sur la façon dont les applications IA doivent être utilisées ?

Alors justement, sur l’exemple que j’ai pris tout à l’heure, c’est pour ça qu’on a pris le parti de faire confiance à priori et de se mettre en contrôle à posteriori. Donc du coup on évite à la personne qui demande la donnée d’attendre qu’un comité se soit réuni pour dire c’est bon, c’est pas bon. Donc on est vraiment sur des processus de plus en plus agiles et rapides. Et donc justement un des exemples concrets qu’on a sur sur l’aspect d’innovation c’était ces fameux datalabs d’expérimentation. Je pense qu’on a tous connu ça quand nos processus d’accès à la donnée était un peu compliqués, qu’est ce que faisait le data scientist qui était assez malin, il se crée en fait des datalabs dans lequel il mettait toutes les données, il mettait une intention, en tout cas une finalité assez vague pour que ça ouvre à peu près tout et puis c’était un datalab d’exploration. Mais finalement ces datalabs ont duré pendant des années, ont quasiment connu des cas d’usage en production dessus et bon c’était la façon dont le système s’accommodait finalement de règles compliquées et de besoin d’innovation. Donc aujourd’hui finalement avec des règles beaucoup plus simples et beaucoup plus rapides, on est en train d’essayer de démonter ces logiques de datalabs exploratoires, en tout cas de les restreindre vraiment à une temporalité courte. Je veux essayer quelque chose de façon rapide et agile et après une fois que j’ai fini je le détruis et je le passe en production mais en tout cas je migre vers la production. Et finalement cette capacité d’innovation elle est encore une fois permise, par ces plateformes modernes et une gouvernance fédérée forte qui permet d’aller vite de l’idée, le test, la mise en production, la supervision.

Quelles sont les clés du succès pour la diffusion d’une culture data dans une grande entreprise, quels que soient les métiers ? 

Déjà c’est vrai qu’on a une approche très en entonnoir on va dire, donc on a effectivement quand même un module de base qui pourrait être le même que pour le grand public, qui est une heure de découverte des notions de base et puis après on va avoir suivant le niveau d’application, de maturité des connaissances, finalement des modules de plus en plus longs, complexes et spécialisés pour y arriver avec jusqu’à la fin des formations certifiantes pour nos experts. On a également des filières spécialisées pour les managers et les exécutifs puis qu’effectivement ces populations qui sont amenées à beaucoup travailler sur le sujet mais qui elles aussi ont besoin de formations un peu plus dédiées, sur lequel on va avoir des formations d’une journée, d’une demi-journée on va venir encore une fois beaucoup montrer des exemples concrets puisque c’est vraiment dans un cours d’expérience qui marche plus. Et puis finalement pour les différents métiers, on va plutôt arriver sur les acculturations basées sur des cas d’usage qu’on connaît et qui leur parle, plutôt que des formations théoriques. On va arriver avec beaucoup de communication à travers des calls managériaux habituels, des réunions, des séminaires déjà habituels dans lesquels on va venir présenter des cas d’usage qui les concernent pour pouvoir hausser le niveau de l’eau. D’expérience, c’est vraiment ce qui démystifie le plus le sujet puisque finalement aller dire l’IA c’est important pour demain, alors qu’on a aidé ton voisin en faisant ça et demain comment ça peut t’aider, là tout de suite c’est beaucoup plus pertinent et donc on utilise beaucoup ce genre de mécanisme. 

Quelle est ta vision du rôle de l’IA au sein des entreprises et de la société dans les années à venir ? 

Alors je pense que les grandes problématiques des prochaines années, ça va être le point que j’ai déjà abordé sur vraiment cette démocratisation. Je pense qu’on est tous confrontés à ça, on est tous passés par ces centres d’excellence et ces équipes un peu centralisées et maintenant voilà comment à l’instar des digital natives, même les entreprises plus legacy comme on peut l’être, deviennent IA by design dans tous leurs projets. Et ça on n’y est pas encore. On a tous commencé cette transformation mais il reste du chemin à parcourir et donc dans quatre, cinq ans on y sera encore et je pense malheureusement que pour ceux qui n’auront pas commencé ou assez avancé dans le chemin, je pense que ce sera très difficile. Je pense que le deuxième sujet ça va être de réassurer, de continuer à réassurer les clients et les collaborateurs sur encore une fois, qu’est-ce qu’on fait des données, de l’IA, comment ça marche avec vous et comment ça marche pas contre vous mais avec vous et là-dessus encore une fois beaucoup d’acculturation, de formation, d’exemples concrets. Et je pense que le troisième enjeu qui va arriver dans ces prochaines années, notamment drivé par la régulation, c’est l’équivalent du RGPD pour l’IA, c’est à dire comment on s’assure que nos entreprises, nos systèmes d’IA on peut leur faire confiance. Donc là dessus c’est tous les travaux de la Commission Européenne autour de l’AI Act qui devrait arriver en 2025 et qui vont profondément changer la façon dont on fait l’IA. 

Qu’est-ce que ça veut dire concrètement, ça veut dire qu’aujourd’hui on est beaucoup plus focalisé par exemple sur la valeur, la performance de l’algorithme pure dans l’absolu. C’est vraiment le KPI qu’on regarde tous, quel est le livre que j’obtiens, la UC, tout ce qu’on a, tous plein de métriques, mais on regarde assez peu par exemple la dérive de nos algorithmes en fonction de perturbation en données d’entrée. Donc est-ce que c’est stable ou pas stable, imaginons sur l’exemple que j’ai pris de reconversion en boutique si on voit une grosse perturbation sur une source de données qui a un problème de qualité d’un coup. Imaginons que notre système du coup devienne fou, ne marche plus du tout et on recommande n’importe quoi à nos clients, des choses qui ne sont plus du tout pertinentes. Du coup le vendeur va se retrouver face à ça et face à des recommandations qui ne sont plus pertinentes, qui sont absurdes pour le client et ça si on l’a pas anticipé, si on ne monitor pas la performance et la stabilité de nos algorithmes et bien on ne saura pas le faire. Donc vraiment voilà derrière l’IA éthique et responsable et l’IA de confiance, il y a beaucoup d’activités qu’on ne mène pas assez aujourd’hui, qu’il va falloir qu’on mène beaucoup plus demain.

Pour finir, il y a t’il un sujet qui te tient à cœur et que tu voudrais aborder ?

Peut-être sur l’IA de confiance, je viens de parler de la stabilité et de la robustesse, mais je pense que les entreprises qui font de l’IA réellement dans leur quotidien, doivent se prendre en main sur cette logique d’IA éthique et responsable. Puisque encore une fois la régulation va arriver dans quelques années et je pense qu’elle couvrira pas tout et notamment elle dira pas comment faire. Et aujourd’hui je pense que ce n’est plus un problème théorique, ce n’est plus un problème de recherche, c’est un problème de pratique, c’est comment on accompagne nos product owners, nos data scientists, nos data engineers pour penser à chaque étape du développement, leur système d’IA comme étant un système IA de confiance. L’exemple typique et connu de tous, c’est par exemple la gestion des biais. Mais comment une équipe projet qui doit faire un algorithme par exemple de recommandations clients, encore une fois cet exemple est assez simple, pense dès le départ de se dire quelles sont les populations que je veux protéger, quels sont les biais que je ne veux pas reproduire, quels sont les biais que je veux complètement annuler, quels sont les biais que je dois monitorer par la suite pour être sûr que par exemple je pousse bien des bouquets sport à des femmes qui veulent regarder des bouquets de sport, parce que si on le fait pas nos algorithmes par nature vont avoir tendance à écraser certaines populations dans la recommandation. Et ça c’est de la pratique, c’est vraiment des méthodologies qu’il faut qu’on implémente beaucoup plus et ça ça va vraiment être quelque chose sur lequel on doit travailler dans les prochaines années.

Pour approfondir ses connaissances en Data & IA, un livre, un article, une vidéo, un site à nous recommander ? 

Alors moi j’aime bien, quand j’ai une heure ou deux que j’arrive à libérer dans mon agenda, c’est surtout aller sur des formations en e-learning, alors moi j’aime beaucoup coursera  parce qu’ils ont des logiques de projets guidés dans lesquels on peut en même temps qu’un instructeur, refaire du pas à pas sur apprendre le SQL, donc j’ai repris le SQL cet été, ou apprendre à faire un peu de langage naturel ou certains types de modèles. Je pense que une heure une heure investie là dedans est très rentable. 

Médéric merci beaucoup.

Merci.

J’espère que cet épisode vous a plu on se retrouve très bientôt pour un nouvel épisode de The Bridge.

RESTEZ INFORMÉ

ABONNEZ-VOUS A LA NEWSLETTER THE BRIDGE.

The Bridge by Artefact

TOUS NOS ÉPISODES THE BRIDGE