Vincent Luciani

Transcription de l'entretien

Vincent Luciani

CEO et co-fondateur d'Artefact

"La valeur créée par la data révèle son plein potentiel quand son adoption est généralisée."

Vincent est convaincu que la data est l’affaire de tous ! L’important est de démocratiser la connaissance sur la data et l’IA pour mieux la maîtriser. Avec “The Bridge”, notre objectif n’est pas seulement d’acculturer les professionnels à la data, mais aussi d’inspirer la société civile et les décideurs de demain à travers un impact positif des données !

 

Caroline : Aujourd’hui, on reçoit Vincent Luciani, le CEO et cofondateur d’Artefact.

Bonjour Vincent, est-ce que tu peux nous en dire plus sur « The Bridge »? Quel est son rôle? Pourquoi c’est important?

 

Vincent : Nous, on a monté la société Artefact qui a 10 ans et en fait on s’est rendu compte de l’évolution incroyable qu’il y a eu sur l’univers de la data. Aujourd’hui, clairement, la data c’est l’affaire de tous. Et en fait, avec « The Bridge », on veut créer finalement un pont qu’il peut y avoir entre d’un côté les experts parce qu’effectivement historiquement c’était un métier d’expert, et finalement tous les collaborateurs d’entreprises, mais aussi l’ensemble de la société.

Si je fais mes achats sur internet, la société qui propose des biens à vendre va sans doute utiliser un algorithme qui va me recommander à un produit acheté. Si je travaille dans le département des ressources humaines d’une entreprise, je vais peut-être utiliser un algorithme qui va me screener les CV. Et en fait, on se rend compte aujourd’hui qu’ on a dépassé le cap finalement de l’expertise et on arrive dans l’air de ce qu’on appelle chez artefact la démocratisation de la data.

 

(01:05) « Pour travailler sur ces sujets avec nos clients depuis des années, on se rend compte que l’important c’est d’arriver à embarquer l’ensemble des collaborateurs avec une notion qui est très importante pour nous, qui est la notion de confiance, et un sujet autour de l’adoption. Et en fait, on pense que cette confiance et cette adoption supposent un certain nombre de prérequis, notamment des prérequis autour de la compréhension générale. On veut que les gens comprennent finalement comment fonctionne cette intelligence artificielle, le monde de la donnée, mais aussi qu’ils comprennent les enjeux et l’ensemble des tenants et aboutissants autour de l’intelligence artificielle et la donnée.

Et donc, on a souhaité avec « The Bridge » finalement interviewer des experts de la data, mais aussi bien au-delà, des membres de la société civile, des écrivains, des philosophes, pour travailler sur ces enjeux dont on va en discuter pendant les différents épisodes, mais des enjeux autour de l’environnement, autour de l’éthique, la durabilité, la confiance et c’est finalement tous ces acteurs de la société civile qu’on a voulu regrouper

(02:28) pour discuter de The Bridge donc, la plateforme qui arrive à créer un pont entre l’expertise de la data et finalement le monde de demain.

 

Caroline : Et est-ce que tu peux nous parler de ton parcours en tant qu’entrepreneur dans la data ?

 

Vincent  : J’ai monté la société il y a 10 ans et, avant ça, j’ai toujours été passionné par les « ponts ». J’ai eu la chance de faire une école d’ingénieur et j’ai terminé mes études dans une école de business school. J’ai toujours été passionné par

(03:06) les ponts entre, d’un côté, la technique et, de l’autre, le monde de l’entreprise. Quand j’ai créé Artefact, j’ai voulu vraiment recréer cette logique de pont et en fait, on a voulu créer des passerelles entre la technologie et les sociétés. Avec Artefact, on veut mettre la technologie à disposition de nos clients.

 

Caroline : Ça fait 10 ans que tu travailles là-dedans, comment as-tu vu ce monde de la data changer ces dernières années?

 

Vincent : Clairement, il y a eu des évolutions massives. Quand nous avons créé la société, Artefact était une start-up, c’était vraiment l’affaire des experts. Il y avait quelques techniciens et certains membres de la recherche qui travaillaient sur ces sujets, mais les technologies n’étaient pas du tout aussi au point qu’aujourd’hui, donc il fallait un gros bagage technologique et

(03:58) scientifique pour pouvoir utiliser le monde de la donnée, même si la donnée existait depuis des années. Il y a une accélération très forte avec des évolutions scientifiques majeures qui ont permis à un certain nombre de laboratoires, mais aussi un certain nombre de sociétés d’arriver à tirer leur épingle du jeu en produisant des nouveaux algorithmes. Et donc on est rentré dans l’air qu’on a appelé l’air de la data science dans lesquelles on est à peu près depuis une petite dizaine

(04:23) d’années, où finalement on a produit beaucoup à la fois de connaissances d’algorithmes et les sociétés sont progressivement on va dire adaptées à cette nouvelle logique d’avoir beaucoup de données et puis et puis produire de l’intelligence à partir de ces données. Et là aujourd’hui, on se rend compte qu’on entre plutôt dans une aire de ce qu’on appelle la démocratisation où les données sont disponibles.

Il y a, dans les entreprises avec lesquelles on travaille, de plus en plus de gens qui sont formés sur ces sujets. Les entreprises se sont structurées autour des métiers de la data et finalement, l’objectif c’est maintenant de résoudre le « l’enjeu du dernier kilomètre. » Comment est-ce qu’on arrive à embarquer l’ensemble des collaborateurs et pas que finalement les experts, les techniciens, sur ces métiers autour de la donnée? Parce qu’en fait, on se rend compte que la valeur de tout ce qu’on a fait ces dernières années, la construction des infrastructures, les algorithmes, tous les logiciels qu’on a construit autour de la data, ils doivent être adoptés. Et en fait, pour que les gens puissent les utiliser, il faut qu’ils comprennent, il faut qu’ils aient confiance.

Et pour résoudre cet enjeu du dernier kilomètre, on veut former massivement et on veut expliquer aux gens la valeur de ce qu’on fait. C’est pour ça que, chez artefact, on a créé notre école qui s’appelle la « School of Data. » On a déjà formé plusieurs milliers de collaborateurs dans les entreprises sur ces sujets, ce qui nous paraît évidemment majeur.

 

Caroline : Et au-delà de la formation, comment les métiers changent face à ce nouvel univers des données ?

 

Vincent : Alors c’est là qu’au début c’était un peu ce qu’on évoquait, il y avait des métiers qui étaient plutôt des métiers techniques donc on a vu beaucoup de mathématiciens émerger depuis une dizaine d’années et puis je pense que notamment en France on a la chance d’avoir des écoles scientifiques vraiment très renommées où on a eu des Masters qui sont créés autour de la data science et notamment chez Artefact on a

(06:06) vraiment de très grands mathématiciens.

Il y a une seconde étape où c’est devenu un peu plus un métier d’ingénieur parce qu’en fait pour pouvoir traiter massivement les données, le problème c’était plus tellement un problème mathématique c’était plutôt un problème d’ingénierie : créer finalement les câbles, créer les infrastructures, les réceptacles pour pouvoir récupérer toutes ces données et finalement entraîner les modèles donc on est passé plutôt d’un métier matheux un métier d’ingénieur les plateformes sont

(06:30) aujourd’hui beaucoup plus simple. On parle de “no code” c’est-à-dire qu’on va pouvoir créer des modèles sans savoir soi-même coder. On parle finalement d’être capable de déployer des choses qui n’existent déjà pas sur étagère et donc on entre plutôt dans des métiers aujourd’hui je pense qui vont tourner autour de l’analytique. Donc c’est plutôt des analystes qui vont finalement pouvoir s’appuyer sur l’ensemble du stock de la connaissance à la fois mathématique et ingénierie qui était développé ces

(06:56) dernières années pour aller déployer on va dire au maximum dans l’entreprise avec une forte logique de décentralisation. Parce que toutes ces applications qui ont été centralisées pendant des années sont en train de se décentraliser dans le monde de l’entreprise et donc ces analyses de la donnée vont maintenant pouvoir finalement dérouler la pente et déployer des modèles des algorithmes de la visualisation dans l’entreprise dans les domaines sur lesquels ils excellent ils travaillent.

 

Caroline : Donc ce que tu es en train de nous dire c’est qu’on va tous devenir des Data Analystes ?

 

Vincent : je pense que la donnée c’est l’affaire de tous. Ce n’est vraiment pas seulement l’affaire des experts. Et même si, dans notre métier, on ne travaille pas sur la donnée au quotidien, être capable de comprendre, d’avoir des bases et quelques outils, ça va vraiment nous permettre, je pense, d’être meilleur dans notre travail et d’avoir des relations peut-être aussi plus fluides avec d’autres départements. Parce que je vais être capable de mieux échanger,

(07:47) avec plus de transparence, d’avoir des outils pour pouvoir communiquer plus facilement et prédire, anticiper, comment vont se passer les différentes tendances au sein de mon département.

Donc, oui, je pense que la donnée, c’est l’affaire de tous.

 

Caroline : Pour conclure, comment vois-tu l’évolution dans les trois, quatre, cinq prochaines années de ce domaine-là?

 

Vincent : Je pense que la data a un rôle clé à jouer sur l’ensemble des problèmes et des grands enjeux qui vont être les nôtres dans les prochaines années, à la fois sur le court terme et sur le plus long terme.(08:18) 

Aujourd’hui, nous faisons face à des enjeux évidemment majeurs autour du risque d’inflation, des risques de crise. Et finalement, dans ce contexte un peu incertain, pouvoir se reposer sur des bases que sont des données scientifiques fiables, c’est un énorme atout. Ça va permettre à des entreprises d’être capables de mesurer, les prix augmentent de combien ?  Et ça va permettre d’être capable (08:43) de prédire comment évoluera la chaîne d’approvisionnement dans les prochaines années.

On va être capable d’optimiser en disant peut-être ce fournisseur risque de faire une rupture dans les prochains mois, comment est-ce que je peux optimiser mon réseau pour avoir finalement un meilleur équilibrage, un meilleur approvisionnement, donc finalement c’est donner des clés pour aller se battre contre la crise en ayant une bonne lecture du terrain de jeu et en ayant les toutes les clés pour finalement avoir les meilleures réponses

(09:12) possibles.

Donc ça c’est je pense le court terme, ensuite, sur le long terme je pense que la data c’est aussi un atout important face aux enjeux climatiques, aux enjeux environnementaux, et qui vont nous permettre finalement de déployer des solutions, non seulement dans le but d’améliorer l’entreprise, mais aussi avec une logique peut-être de pas penser que finalement à la performance de l’entreprise, mais aussi on va dire à l’environnement et à l’ensemble des enjeux environnementaux et climatiques autour (09:42) de nous.

 

Je pense par exemple à la mesure de l’empreinte carbone. On voit aujourd’hui que c’est hyper difficile d’avoir accès à toutes ces données qui vont permettre finalement aux entreprises, à la société, de pouvoir mesurer correctement quelle est l’empreinte carbone de tel ou tel produit, la donnée et finalement les différents algorithmes vont nous permettre d’avoir accès à ces informations pour pouvoir mesurer plus précisément tel ou tel produit, quelle est sa teneur en carbone et pouvoir proposer des solutions

(10:11) potentiellement qui soit actionnables pour les entreprises.

 

Donc c’est déjà être capable de mesurer et après la donner à l’intelligence artificielle. C’est aussi un formidable instrument pour réduire et optimiser réduire son empreinte en réduisant ses stocks, en réduisant ses commandes, en allant trouver des fournisseurs alternatifs qui sont peut-être plus sobre et donc c’est des clés pour l’entreprise pour aussi aller affronter les enjeux de demain.

 

Je pense aussi que donc on a vu des enjeux de court terme (10:37) des enjeux plus de moyens termes je pense qu’ il y a aussi un enjeu très important pour la confiance on le voit progressivement finalement aux mesures, au fur et à mesure que la donnée se démocratise elle est encadrée. Il y a eu le RGPD il y a quelques années, il va falloir aussi encadrer un petit peu plus nos propres pratiques autour des algorithmes et de l’intelligence artificielle. Et je crois que dans les prochaines années, les prochaines décennies, il va y avoir un enjeu aussi de voilà,

(11:06) encadrer pour créer la confiance et finalement la bonne, les bonnes conditions pour pouvoir construire ces algorithmes en toute confiance. Je pense que l’entreprise, les pouvoirs publics et la société dans son ensemble doit aussi créer ses conditions de confiance pour travailler et adopter, démocratiser la data le plus possible.

 

Caroline : Vincent, pour conclure une recommandation : est-ce qu’il y a un livre, une conférence, un article, qu’il faut absolument qu’on lise ?

 

Vincent : alors moi déjà de manière générale je recommande de lire

(11:39) beaucoup de choses pas forcément que sur la data et l’IA, parce que ça aide aussi à comprendre des approches un peu systémiques du monde qui nous entoure. Alors, j’ai plusieurs recommandations de livres que je suis en train de lire en ce moment : le premier, c’est une analyse sur les risques des biais comportementaux. C’est une trilogie de Danielle Kamel qui a un autre des prix Nobel en économie, a écrit plusieurs livres le dernier était co-écrit avec Olivier Sibony, il s’appelle « Noise » et donc il aide à comprendre finalement les

(12:10) risques à la fois de biais et de bruit dans l’analyse des comportements. C’est-à-dire que je recommande beaucoup pour comprendre un petit peu les faits, notamment de groupe, lorsqu’on a réagit ensemble à une situation dans notre secteur?

Je peux recommander un livre qui propose une approche très complète sur la centralisation des méthodes autour de la donnée, qui est écrit par un auteur formidable qui s’appelle Zhamak Dehghani et qui a conceptualisé finalement l’ensemble de la décentralisation des modèles de données

(12:40) dans une entreprise autour d’un concept qui s’appelle Le Data Mesh. Et c’est à la fois la centralisation des infrastructures et des organisations, les modèles de données, et c’est ce qu’on considère être une approche théorique excellente. Sur une entreprise qui décentralise ces modèles de données, peut-être un dernier livre que je peux sur, finalement un auteur que j’adore qui s’appelle Vaclav Smil, qui est aussi l’auteur préféré de Bill Gates. Donc, voilà, on va dire que je suis le choix de Bill Gates.

(13:09) Le livre en question s’appelle « Numbers Don’t Lie », et en fait, c’est un économiste, qui a une approche vraiment intéressante des chiffres, mais en perspective autour de d’une vingtaine de paragraphes des chiffres qui montrent des réalités sur le monde qui nous entoure, qui sont pas intuitives. Et voilà, ce livre est passionnant parce qu’il a une approche vraiment systémique de notre société au travers l’analyse chiffrée. Donc, je le recommande vivement.

RESTEZ INFORMÉ

ABONNEZ-VOUS A LA NEWSLETTER THE BRIDGE.

The Bridge by Artefact

TOUS NOS ÉPISODES THE BRIDGE