MICHEL TRICOT

Transcription de l'entretien

MICHEL TRICOT

CEO d'Airbyte

"L’open source pour résoudre la connexion des datas ETL."

Bonjour je suis Caroline Goulard, j’ai co-fondé deux entreprises dans le monde de la visualisation de données et je travaille depuis plus de 10 ans à faire des ponts entre les humains et les données. On est ensemble aujourd’hui pour un nouvel épisode de The Bridge, la plateforme de contenu d’Artefact qui démocratise les connaissances autour de la donnée et de l’intelligence artificielle. Et aujourd’hui nous recevons Michel Tricot. Michel bonjour. 

Bonjour, merci de m’accueillir ici. 

Alors Michel qui êtes-vous, sur quoi travaillez-vous ?

Je suis le cofondateur et le CEO de Airbyte et je travaille sur la portabilité de la donnée, s’assurer que les compagnies puissent accéder à toutes leurs données ou qu’elles soient et en extraire de l’information. 

Peux-tu nous parler de l’origine d’Airbyte et de votre solution ? Qui utilise Airbyte ?

Ça va être toutes les compagnies qui utilisent des bases de données, qui utilisent des applications SaaS, qui utilisent même des spreadsheets, des fichiers. En fait toutes ces applications, tous ces endroits c’est ce que j’appelle des silos de données, c’est à dire c’est de la donnée qui est isolée et qui n’est que disponible dans ces applications là et en fait avec Airbyte on permet en fait de casser ces silos et de centraliser la donnée dans les datawarehouses. Et une fois que la donnée est centralisée c’est là qu’elle commence à avoir le plus de valeur parce qu’on peut la mettre en relation avec les autres datasets. En fait n’importe quelle compagnie peut utiliser Airbyte que ce soit de façon globale ou que ce soit même limité juste à une partie de l’organisation, comme l’équipe finance ou l’équipe marketing, elles vont avoir besoin de centraliser cette donnée. 

Comment la plateforme Airbyte fonctionne-t-elle pour connecter et harmoniser tout flux de données aussi facilement et rapidement ?

C’est effectivement le vrai problème de l’accès à la donnée, c’est à dire que tout ces endroits, toutes ces databases, toutes ces applications ont une façon très spécifique d’accéder à la donnée et c’est là qu’il y a toute la complexité pour les équipes de Data. C’est à dire que si une équipe n’utilise pas Airbyte, ce qu’ils vont devoir faire c’est créer un connecteur, donc apprendre comment se connecter à ce service et apprendre comment extraire la donnée de ce service. Une fois que le connecteur a été construit il y a aussi toute la pastille de maintenance c’est-à-dire que ces services vont changer donc les connecteurs vont devoir être updatés et ce que l’on fait c’est créer ces connecteurs avec toute la spécificité de l’accès à la donnée et simplifier le day to day des data engineers. 

Donc c’est vous qui créer les connecteurs et vous proposer un catalogue de connecteurs ? 

C’est presque ça. En fait Airbyte c’est un outil open source donc à la base n’importe qui peut y avoir accès et en fait ce qu’on a créé c’est une façon de développer très rapidement des connecteurs et surtout de les maintenir. Aujourd’hui quand on prend Airbyte, la version open source ça vient avec 200 connecteurs out of the box que n’importe qui peut utiliser, mais si jamais il y en a qui manque, si jamais il y en a qui ne fonctionnent pas aussi bien que ce qu’ils devraient ou pour lesquels il manque certaines features, la communauté peut prendre le connecteur et le manipuler, le customiser, l’améliorer ou même juste créer tout simplement des nouveaux connecteurs. Et en fait c’est comme ça sur les les deux dernières années,  qu’on a réussi à agrandir très rapidement notre nombre de connecteurs et surtout leurs qualités. 

Quel est le modèle économique d’Airbyte ?

J’ai déjà monté ce genre d’équipes, donc des équipes de Data et ce que j’ai appris en le faisant c’est que la date integration c’est non seulement un problème technique, mais surtout un problème humain, c’est un problème de process. C’est-à-dire, oui il faut la technologie pour savoir comment est-ce qu’on crée des connecteurs, comment est-ce qu’on les maintient, comment est ce qu’on les monitore, mais la maintenance se fait grâce à des êtres humains. Et à ce moment-là c’est, comment est-ce qu’on crée un modèle qui va scaler sur le nombre de connecteurs qu’on a et qui va permettre de toujours garder des connecteurs qui soient de bonne qualité. C’est pour ça qu’en fait ici le modèle Open Source nous permet en fait de de régler ce problème humain, ce problème de process et en fait maintenant la communauté peut travailler avec Airbyte, les contributeurs peuvent travailler ensemble pour justement créer et maintenir ces connecteurs. Par exemple si jamais demain on a un contributeur qui dit j’ai besoin d’un connecteur pour Salesforce, il va l’utiliser, demain il y a un autre contributeur qui va utiliser le connecteur Salesforce, il va se rendre compte qu’il ne marche pas aussi bien que ce qu’il voulait, il va l’améliorer et cette amélioration va se propager chez tous les utilisateurs du connecteur Salesforce. Et c’est vraiment comme ça qu’on va réussir à scaler et adresser ce qu’on appelle nous la longue tail des connecteurs, c’est-à-dire tous les Data silos qui peuvent exister au sein d’une entreprise ou au sein d’un service. 

Vous êtes une entreprise technologique qui repose sur la contribution de plein d’êtres humains ?

C’est exactement ça. Nous maintenant en tant que compagnie, ce que l’on fait c’est qu’on est là, on anime la communauté et on s’assure que chaque chemin de travail et chaque treadmil, chacun a un peu son rôle, soit c’est de la qualité, soit ça va de la maintenance, soit ça va être un petit bug, soit ça va être une amélioration du connecteur et on coordonne en fait toute la communauté pour créer des connecteurs qui soient extrêmement performants. 

Airbyte est une solution technologique open source, quels bénéfice apporte-t-il ?

Quand on a créé Airbyte ça a vraiment été open source pour les problèmes des petites équipes et des individuels. Tout ce qui est pour les équipes plus grosses ou pour des organisations c’est là qu’on va monétiser donc on va le voir non seulement au niveau des features, c’est à dire qu’il va y avoir certains features qui sont disponibles en open source et certains qui ne le sont pas, par exemple user management, audit logs, etc, tout ça c’est des choses qui ne sont pas disponibles en open source et pour lesquelles il y a une licence à payer et après on a aussi toute la partie cloud. C’est à dire c’est un produit de Data et on sait tous que les produits data c’est extrêmement complexes à manager et à opérer et nous ce qu’on peut faire du coup en tant que monétisation c’est : si vous ne voulez pas opérer et manager Airbyte Open Source vous-même, vous avez juste à utiliser notre version Cloud. Du coup on prend sur nous le coût des opérations, le coût des upgrade, le coût de la maintenance, etc.

Quel est le rôle d’Airbyte sur la chaîne de valeur de la data ? 

Alors quand on pense à la data, je vois vraiment trois pilliers. Au sein des entreprises, il y a toujours la partie import de la donnée, son processing et ensuite son activation. Donc nous on est au tout début de la chaîne de valeur. C’est-à-dire, la data existe quelque part, elle est siloed, elle est difficile à accéder et nous on la rend disponible dans les datawarehouses. Une fois que la data est dans les data warehouse, toutes les équipes analytics, toutes les équipes de sales ops, etc, peuvent se connecter sur le warehouse et peuvent commencer à introduire leurs besoins métier dans les analyses qu’elles vont faire sur ces données. Une fois que ces analyses sont faites, elles sont exposées sous forme de dashboard ou sous forme de rapport, ou alors il y a encore ce qu’aujourd’hui on appelle le reverse ETL, une fois que la data a été traitée, comment est-ce qu’on l’active dans des systèmes opérationnels. Et ça c’est un use case qu’on voit de plus en plus et sur lesquels les gens posent de plus en plus de questions et sur lequel on va essayer de positionner aussi les connecteurs d’Airbyte pour favoriser le mouvement de Data dans les systèmes opérationnels. Un exemple ça va être de prendre de la data chez Salesforce, prendre de la data sur les produits, je le mets ensemble, j’identifie des signaux sur comment les clients utilisent mon produit et derrière je vais pouvoir automatiquement créer une campagne de mails, en leur disant bon vous avez utilisé cette feature de cette manière, voilà des guides que vous pouvez regarder pour mieux encore les utiliser. Et tout ça c’est la partie opérationnelle ce qui s’appelle reverse ETL, c’est quelque chose sur lequel on va travailler en 2023. 

Quelle est la maturité des entreprises sur les différentes étapes de cette chaîne de valeur ? 

Si on regarde comment la data a évolué sur les dernières années, il y a eu plusieurs générations. Et là ce qu’on est en train de faire c’est qu’on est en train de sortir de la génération Hadoop, Spark et compagnie, on commence vraiment à se focaliser sur les modernes datawarehouses et la raison pour laquelle ça devient si populaire c’est que ça rend l’accès à la donnée beaucoup plus simple à l’intérieur des compagnies. C’est à dire que quand on était sur Spark, c’était toujours des data engineers qui devaient travailler, c’était eux les responsables de faire tourner les pipelines, de lancer les analyses. Avec les datawarehouses ce qui se passe c’est que les équipes de Data deviennent une plateforme qui empower le reste de l’organisation et à ce moment là tous les analystes, analytics engineers, ops people, ils peuvent commencer à se connecter d’eux mêmes sur le warehouse et vraiment appliquer toute leur expertise dans les analyses. Je pense que ce qu’on va voir sur les prochaines années c’est que le rôle de data ingénieur va changer dans le sens où ils seront plus seulement responsables de créer ces analyses mais vraiment responsables de la construction d’une plateforme à destination du reste de l’entreprises. Et par dessus les équipes vont commencer de plus en plus à s’équiper d’analystes en interne qui vont pouvoir bouger d’une équipe à l’autre pour résoudre les besoins immédiats de ces équipes en termes d’analyse. Par exemple, nous ce que l’on fait chez Airbyte c’est qu’on recrute beaucoup de gens et on utilise beaucoup la data pour comprendre où dans nos pipelines on a des problèmes de recrutement, quelles sont les interviews qui ne marchent pas bien, ce sur quoi on n’a pas les bons signaux et on travaille avec notre équipe d’analytics qui va en fait placer un analytics ingénieur dans l’équipe de recrutement qui va supporter l’équipe de recrutement pour arriver aux bonnes metrics et aux bonnes conclusions. Donc ça c’est vraiment l’évolution qui va se passer, c’est l’embedding de data profiles directement dans les équipes et tout ça en utilisant les outils beaucoup plus modernes que ce qu’on avait avant. Il va y avoir beaucoup plus de d’accent aussi sur la qualité, sur le cataloging, c’est à dire c’est beau d’avoir de la data, mais si ce n’est pas de la bonne data c’est un problème et surtout si elle n’est pas compréhensible par le reste de l’organisation c’est aussi un problème. Donc tous les outils de cataloging vont pouvoir se greffer par dessus pour en fait publier la data qui est disponible dans la compagnie et laisser après les équipes décider et elles se servent sur la data. 

Comment évoluent les besoins de priorisation des données ? 

En fait c’est une question de maturité de compagnie, c’est quand une compagnie décide qu’elle a envie de prendre des décisions basées sur la donnée, la première chose à faire est de se dire quel est l’outil qu’elle va utiliser pour processer cette donnée, pour la stocker. Et en général on commence par le warehouse. Une fois qu’on a le warehouse, c’est ok c’est super, c’est un peu une coquille vide aujourd’hui, comment est-ce que je fais pour rajouter de la donnée dedans et c’est là qu’on va avoir toute la partie d’ingestion et toute la partie de réplication de données et au dessus de ça on va commencer à greffer d’autres besoins, comme par exemple être la qualité, c’est à dire qu’une fois que la data a été prise c’est la qualité. En fait au fur et à mesure on commence à se rapprocher de plus en plus des identités business sur que faire avec la donnée. Donc ça commence au warehouse, ingestion, quality, ml, AI, BI, visualisation et tout en haut c’est la partie automation et reverse ETL, où là c’est vraiment l’organisation est tellement mature sur l’utilisation de sa donnée et sur sa qualité, qu’ils peuvent décider très rapidement de leverage cette donnée dans des systèmes opérationnels. Et ce qu’il faut par contre en tant qu’organisation c’est ne pas brûler les étapes, c’est à dire on ne peut pas faire de l’opérationnel si on n’a pas de qualité parce que si on fait ça, on va dans le mur, un jour il y aura de la mauvaise donnée et soudainement on va envoyer le mauvais e-mail à tous nos clients donc c’est la chose à laquelle il faut faire attention, c’est pour ça que j’aime bien voir ça comme une pyramide. 

Quels sont les changements apportés par la plateforme Airbyte dans une équipe data ? 

C’est toujours la même chose, nous on appelle ça le problème “it’s just a little script”, c’est à dire que le marketing a besoin de faire une analyse, elle va aller voir Joe qui est dans l’équipe data et elle va dire bon Joe j’ai besoin de la donnée Hubspot. Joe va être très content il va dire ok très bien je vais faire mon petit connecteur Hubspot et je vais commencer à importer la donnée Hubspot et deux jours après l’équipe marketing revient vers Joe et lui dit j’ai besoin de cette data en plus. Donc Joe dit ok très bien, il reprend son petit script il rajoute la donnée dedans et voilà. Et ensuite le marketing lui dit c’est bizarre la donnée n’a pas été mise à jour, et Joe regarde et dit effectivement le script n’a pas tourné depuis trois jours donc du coup il va commencer à mettre du monitoring par dessus et ils l’équipe marketing lui dit ah ça serait bien d’avoir la data toutes les heures plutôt que tous les jours, donc là Joe il revient et il va commencer à changer le scheduling et en fait ne pas utiliser un outil comme Airbyte, c’est en fait mettre le doigt dans un engrenage et se faire complètement avaler par la maintenance en fait et nous ce qu’on veut c’est justement, à part quand on est Airbyte, il n’y a pas vraiment d’intérêt pour un data ingénieur à construire ces connecteurs et à les maintenir parce qu’en fait ils vont juste être en constante réaction sur toutes les demandes qui viennent des autres équipes et en utilisant Airbyte en fait ils ont accès directement à ses connecteurs et ils ont toujours une base sur laquelle ils peuvent travailler et par contre tout le côté orchestration, tout le côté monitoring est déjà managé par Airbyte donc c’est ça la différence. Du coup les data engineers peuvent se focaliser sur des tâches qui sont un peu plus intéressantes comme la qualité ou le lineage de la data ou le cataloging de la data ou la construction de la plateforme pour le reste de la compagnie. Nous ce qu’on aime bien dire c’est “Focus on extracting insight instead of extracting there”, il faut se concentrer sur ce qui a de la valeur et importer la data ça a une valeur mais c’est dans le but d’extraire des insights. 

Quel est ton parcours d’entrepreneur ? Comment réussir à faire croître une société en si peu de temps dans le domaine de la data ?

Ça fait 15 ans que je travaille dans la data, j’ai commencé dans la data financière, où là c’était plus ingérer toute la donnée qui est créée par des analystes sur les centres de compte des entreprises et en fait ils créent ce qu’on appelle des estimates. Et c’était pareil, c’était du minufacturing de data, c’est à dire ça vient dans des PDF, ça vient dans des fichiers XMS, ça vient dans des spreadsheets et c’est comment est-ce qu’on crée ce process qui ramène la donnée très brute et en fait qui va la changer, la modifier jusqu’à ce qu’en fait ça en devienne une data qui est exploitable par des traders. Donc c’était la première expérience de data et en 2011 je suis arrivé à San Francisco et là j’ai eu la chance de rentrer dans une start-up qui a extrêmement bien marché, je suis resté pendant 6 ans et j’ai monté en fait toute l’équipe ce qu’on appelait data integration donc comment connecter Liveramp à tout le advertising et marketing écosystème, donc tous les ad plateformes, toutes les outils de marketing, tous les outils de sales, et on a construit à peu près 1000 connecteurs pour en fait rendre la donnée extrêmement fluide et portable dans toutes les différentes plateformes. J’ai monté donc l’équipe là-bas et c’était à l’époque d’Hadoop et en fait ce qui s’est passé c’est que sur la fin de ma tenure à Liveramp il y avait l’émergence de ces nouveaux warehouses et avec l’émergence de ces nouveaux warehouses toutes les compagnies aujourd’hui ont la capacité d’être des Data compagnies. Et en fait je me suis dit tous les problèmes que j’ai rencontrés chez Liveramp ça va devenir les problèmes de toutes les compagnies dans le futur et c’est comme ça qu’on a commencé. On vraiment créé la société en janvier 2020, on a fait YC, Y Combinator qui est une sorte d’incubateur pour les startups à côté de San Francisco et on a fait pas mal de pivots, voilà janvier 2020 c’était trois mois avant le covid donc on s’est un peu pris le covid en pleine face. Ça nous a forcé en fait à mieux définir le produit, mieux définir ce qu’on voulait construire et en juillet 2020 c’est là qu’on a pris la décision de construire Airbyte et on a released Airbyte au public en septembre 2020 et en fait 2021 ça a été une très grosse adoption par les compagnies. Je crois qu’on a 30 ou 35000 déploiements d’Airbyte et on a à peu près 2000 daily active users qui sont des gens qui ont intégré Airbyte complètement dans leur data stack et là pour nous ça a vraiment été une croissance exponentielle en terme de l’utilisation de l’open source.

Quels sont les clés du succès d’Airbyte ? 

En fait, personne n’a envie d’être Joe et ce qui se passe avec l’Open Source c’est qu’en fait dès qu’on doit penser software il y a toujours le côté build versus buy. Et quand on demande à un ingénieur surtout dans la data, le défaut ça va toujours être de build. Ça veut dire qu’au lieu d’acheter une solution on va essayer de construire une solution en interne et en fait c’est là que Open Source marche extrêmement, bien c’est que Open Source remplace pas le buy mais Open Source remplace le build. Donc si quelqu’un vient vers un ingénieur et lui dit crée-moi un connecteur Salesforce, le premier réflexe que vont avoir les ingénieurs c’est d’aller voir en ligne s’il n’y a pas un connecteur que je peux récupérer quelque part et en fait c’est ça qui a vraiment poussé Airbyte directement chez tous nos clients en fait. Un ingénieur n’a pas envie de construire un connecteur, il va le chercher en open source, il importe Airbyte et à partir de là il a ce premier connecteur et au fur et à mesure il rajoute de plus en plus de use cases jusqu’à arriver à un point où en fait la maintenance et les opérations sont trop lourdes et c’est là que nous on vient et qu’on peut commencer à vendre une solution. 

Quelle évolution d’Airbyte dans les prochaines années ? 

Aujourd’hui ce qu’on appelle notre north star, c’est on veut construire une plateforme qui soit extrêmement stable et qui peut vraiment toucher à la donnée un peu partout. Donc les deux prochaines années c’est vraiment se focaliser sur la reliability de nos connecteurs et de la plateforme et sur la capacité à aller toucher la data ou qu’elle soit, que ce soit sur des API, que ce soit sur des bases de données, que ce soit dans des cloud privés ou sur des VPC, le but c’est vraiment de rendre Airbyte disponible vraiment partout. Une fois qu’on a fait ça donc il y a la partie donc connectivity qui est adressée à la long tail des connecteurs, il y a la partie location donc s’assurer que Airbyte peut tourner un peu partout dans le monde et sur n’importe quel cloud et ensuite il y a aussi la partie différents types de data stream, aujourd’hui c’est beaucoup récupéré la donnée d’API, récupérer la donnée de data bases, on veut aussi travailler beaucoup plus sur la donnée événementielle, c’est-à-dire quand quelqu’un clique sur un bouton ça crée un event, comment est-ce qu’on permet à cette donnée de bouger aux bons endroits, et la partie reverse ETL c’est à dire se connecter sur des systèmes opérationnels et rendre la data disponible là-bas. Une fois qu’on a ces trois premiers piliers d’Airbyte, le quatrième qu’on appelle l’intelligence, c’est-à-dire on a tous nos pipes, comment est ce qu’on rend ces pipes plus intelligents. Et là ça va être des choses par rapport à la privacy donc comment on s’assure que quelqu’un n’est pas en train de bouger de la donnée dans un datawarehouse et de rendre disponible je sais pas des numéros de sécurité sociale ou des numéros de carte de crédit, comment est-ce qu’on protège les compagnies avec leurs données et s’assurer qu’il y a pas de mauvaise donnée qui va au mauvais endroit. Après il y a aussi toute la partie qualité, c’est à dire qu’avant que la donnée arrive dans le système où elle va être processée, comment est-ce qu’on peut s’assurer que la donnée est toujours valide, qu’il n’y a pas eu un problème à la source et que du coup on se retrouve avec de la donnée corrompue dans la destination. Ça va vraiment être travailler sur cette intelligence, cette surcouche au dessus des pipes pour rendre les pipes encore plus valuable. 

Quels conseils donner aux dirigeants et CDO d’une entreprise pour s’adapter à ces évolutions de l’IA ? 

Pour bien s’adapter à ces prochaines étapes il faut toujours penser à comment rendre les équipes plus indépendantes, en fait c’est à partir du moment où tu rends la donnée disponible dans un warehouse c’est comment est-ce que tu structures tes équipes de manière à ce que chaque équipe puisse être indépendante avec la donnée. En faisant ça, ça va créer des équipes qui sont beaucoup plus performantes, qui comprennent exactement leurs input et leurs outputs et c’est vraiment ne pas isoler la data dans les équipes data mais vraiment de la rendre disponible, avec bien sûr toutes les sécurités qui vont avec, mais de toujours pousser l’extraction d’information de la data dans les équipes métiers et pas dans les équipes de data. 

La solution Airbyte permet-elle un meilleur traitement éthique des données ? 

Je pense que les enjeux éthiques sont là à partir du moment où de plus en plus de personnes peuvent avoir accès à ces données et c’est là quand on parle de la pyramide de Maslow, c’est là où il va sûrement y avoir des layers dessus sur qui a accès à la donnée, qui a le droit d’accéder à la donnée, qui a le droit de lire certains types de données et aussi quelles sont les types d’analyse qui sont faites et je pense que là ça sera plus la création de nouveaux types de rôles qui sont un peu plus transverses ou ça sera comme aujourd’hui on va avoir quelqu’un qui gère la sécurité, la sécurité c’est pas une seule entité c’est quelque chose qui va être sur toute la chaîne de valeur de la data, il y aura probablement des rôles similaires en termes de privacy, en termes d’éthique pour informer en fait les différentes équipes pour qu’elles prennent les bonnes décisions avec la donnée. Mais c’est sûr que plus il y a de la donnée, plus on peut prendre des bonnes décisions et il y aura toujours des dérives comme toujours quand on a des outils très puissants mais maintenant c’est une question de comment est-ce qu’on crée les bonnes sécurité, les bons outils pour éviter ce genre de dérive tout en laissant libre cours à l’imagination des gens pour prendre des meilleures décisions, améliorer leurs organisations, améliorer leurs produits grâce à cette data. 

Et toi tu vois ça plutôt comme une étape en plus dans la chaîne de traitement ? 

C’est plus une question d’éducation à ce moment-là qu’une étape et c’est une éducation par contre qui doit être fait tout au long de cette chaîne de valeur, comme par exemple peut-être que segmenter les gens par genre ce n’est pas la bonne chose à faire ou peut-être que collecter des informations sur les religions c’est pas la bonne chose à faire, et en fait c’est plus une question d’éducation et peut-être d’avoir des outils qui sont capables d’auditer la donnée et de détecter quand il y a ce genre de d’information qui circule et surtout s’il y a des décisions qui sont faites par rapport à ces données. 

Alors chez Airbyte justement comment vous assurer la formation de vos propres membres ?

Très bonne question, on a très peu de données sensibles aujourd’hui et surtout c’est une des raisons pour laquelle l’open source est important c’est que c’est une responsabilité que nous ne pouvons pas avoir parce qu’on ne connaît pas comment la donner va forcément être utilisée du côté de nos clients et on laisse en fait cette responsabilité à nos clients d’éduquer leurs équipes. Maintenant on a embauché récemment quelqu’un qui gère toute la partie policy sur la data et qui va commencer à faire aussi de l’éducation un peu plus publique sur quoi faire, quoi ne pas faire avec de la donnée. 

C’est important pour vous quand même de porter une vision de ce qui est bien ou pas de faire avec les données. 

Très important, on est quand même un enabler de la donnée donc c’est non seulement une question d’éducation mais c’est aussi quel genre de feature on va pouvoir ajouter dans Airbyte pour protéger les organisations et de ne pas faire n’importe quoi. C’est ce que je disais tout à l’heure, c’est très facile de transférer de la mauvaise donnée aux mauvais endroits, si on a une base de données avec des numéros de carte de crédit ou des numéros de sécurité sociale, comment est-ce que on protège les gens et qu’on s’assure que cette donnée ne va jamais partir dans un système où tout le monde y a accès. Donc il y a de l’éducation mais il y a aussi des sécurités qu’on peut mettre en place et ça c’est des features qu’on va commencer à créer dans Airbyte. 

Pour approfondir ses connaissances en data et IA, un livre, un article, une vidéo, un site à nous recommander ? 

Alors forcément on a beaucoup de très bons articles sur le blog d’Airbyte, en terme de livres ça dépendra vraiment du type de profil mais là il y a un très bon livre qui est sorti sur qu’est-ce que c’est qu’un data ingénieur, c’est chez Aurélie et qui explique vraiment quel est le rôle d’un data engineer, quel est le nouveau rôle en fait des équipes data et c’est exactement ce que ce que je disais avant, qui est vraiment créer une plateforme pour empower les gens à être très fort avec la data et pas isoler la data dans les équipes de data. Sinon en tant que que personne, je penserais bien à Tristan qui est le CEO de DBT qui a des opinions très fortes sur comment empower les équipes sur la transformation, sur la publication de nouveaux modèles de data et aussi Maxime Beauchemin qui est le créateur original de airflow et de Preset qui lui aussi a des très fortes opinions sur à quoi ressemble la data stack et comment est-ce qu’elle va évoluer avec le futur et comment la créer de façon à ce que elle soit extensible avec les nouveaux besoins qui arrivent dans la compagnie. 

Michel merci beaucoup. 

Merci beaucoup.

On se retrouve très bientôt sur la plateforme de Bridge pour un nouvel épisode. 

RESTEZ INFORMÉ

ABONNEZ-VOUS A LA NEWSLETTER THE BRIDGE.

The Bridge by Artefact

TOUS NOS ÉPISODES THE BRIDGE