ILIASS BENRYANE

Transcription de l'entretien

ILIASS BENRYANE

Lead Data Scientist chez Artefact

"L’IA Générative"

Bonjour à tous. Je suis Emmanuel Malherbe, Directeur de la recherche chez Artefact et j’ai la chance d’animer ces Data Coffees de la plateforme média The Bridge. Le principe est simple, un sujet data, un expert data d’Artefact et un bon café. Bonjour Iliass comment vas-tu ?

Bonjour Emmanuel, ça va très bien, et vous ?

Très bien. Alors qui es-tu chez artefact ?

Je suis Iliass, data scientist et cela fait 5 ans à peu près que je suis chez Artefact. J’ai bossé sur pas mal de missions, sur du traitement de langage naturel, de la vision par ordinateur ce qu’on appelle la computer vision et dernièrement, on a commencé à pas mal s’intéresser à tout ce qui est IA générative, notamment par rapport à ce qu’on appelle les langage models, les modèles de langage, mais aussi les diffusion models pour tout ce qui est vision.

Et donc sur ce sujet peux-tu nous donner un peu d’historique, notamment scientifique ?

Bien sûr, alors tout ce qui est IA générative ce n’est pas sorti de nulle part, ce n’est pas quelque chose qui a été inventé sur les deux dernières années. Nous typiquement les data scientists, data engineers on travaillait sur des problématiques de NLP, natural language processing, donc traitement du langage textuel mais aussi des problématiques de computer vision depuis des années. Je pense que ça remonte à une vingtaine, voire une trentaine d’années, c’est une évolution sur le temps. Pour donner un historique sur tout ce qui est langage textuel, traitement du langage humain, effectivement on avait commencé par des choses comme du Word2vec où la première idée c’était déjà de savoir comment représenter le langage humain en vecteur de nombre et pareil pour les images également, donc tout ce qui est réseau neuronal convolutionnel par exemple, donc comment je prends une image et je représente ces pixels à travers une matrice, comme une matrice qu’on avait vue à l’école. Donc voilà c’est vraiment une évolution et ensuite on a eu à la fois une révolution scientifique sur les idées, il y a eu ce fameux papier de recherche de Google Attention is all you need donc on a compris qu’on peut ajouter des mécanismes, ces réseaux de neurones, pour les améliorer. Ça a donné lieu à des modèles qu’on voit aujourd’hui très puissants, comme ChatGPT, Palm, etc, donc voilà c’est une évolution effectivement scientifique mais aussi c’est une évolution sur la puissance de calcul. Donc à travers tous les progrès qui ont été faits sur les GPU de la part de Nvidia par exemple, aujourd’hui la plupart des grands cloud providers qui offrent ces modèles, ce qu’on appelle des foundation models, ils ont des data serveurs avec plein de GPU et c’est ça qui a déclenché effectivement cette révolution.

C’est vraiment une révolution. Et en terme d’outil, quel est ton point de vue aujourd’hui sur ce qui existe sur le marché ?

Alors ça dépend de la manière dont on se positionne. C’est à dire que par exemple en tant que développeur, je ne vais pas forcément utiliser des outils déjà faits, des outils sur étagère, je vais plus utiliser par exemple les modèles à travers les API des cloud providers comme Google, Microsoft, AWS. D’un point de vue consommateur, effectivement il y a eu pas mal de gens qui ont été surpris par ChatGPT, donc des gens qui n’étaient pas conscients de tout le progrès qui se faisait sur le domaine du NLP, des gens qui ont été surpris aussi par ce qu’on appelle les diffusion models qui sont derrière tout ce qui est Midjourney. Donc d’un point de vue développeur, nous on s’intéresse plus à des API, à des frameworks d’abstraction qui nous permettent de facilement coder des process avec ces API. Donc les API c’est des choses qui nous permettent d’accéder au modèle, par exemple ChatGPT sur Microsoft, et d’un point de vue utilisateur on a vu plein de choses, des outils sur ChatGPT pour le texte, pour générer du texte, même pour raisonner, parfois pour faire un brainstorming avec ChatGPT, Midjourney pour générer des images les éditer, etc, Stable Diffusion pareil. On voit aussi aujourd’hui pas mal de produits sur la partie voix, par exemple BARK, tu peux lui dire, tu peux même lui écrire une histoire et en fonction du contexte il va se dire “cette personne je vais lui faire une voix par exemple de femme parce que c’est une femme et cette personne ça va être plus une voix d’homme” donc vraiment on arrive sur des usages, des outils très développés. Mais pour nous les développeurs on revient toujours à la source sur les API et on utilise des frameworks comme LangChain, LlamaIndex, etc, qui vont nous aider à construire des choses avec les language models par exemple.

Ça donne beaucoup de perspectives, c’est très riche. Est-ce que tu aurais des exemples de cas d’usage basés sur le generative AI ?

Oui alors juste avant d’aller sur les cas d’usage, il faut faire la distinction entre les deux sujets, donc les language models et les vision models. Tout ce qui est modèle de langage aujourd’hui on n’a pas beaucoup de friction, de copyright donc ça avance beaucoup mieux que la vision. La vision aujourd’hui ça pose beaucoup de problèmes de propriété intellectuelle des artistes donc le cadre il n’est pas encore bien défini, que ce soit légal ou éthique. Alors que sur la partie language model on voit aujourd’hui que même nos clients ils ont plus de facilité à vouloir lancer des use cas là-dessus et du coup je vais plus me concentrer sur la partie language model qu’on traite pas mal en ce moment avec nos clients. Moi je dirais qu’il y a quatre typologies de use cases. Il y a par exemple tout ce qui est content generation, ça c’est la première chose qui vient à l’esprit des gens parce que quand je viens sur ChatGPT, je lu dis “génère-moi un mail ou réécris-moi ça”, il y a de la content generation, de la génération de contenu pour tout ce qui est par exemple marketing, donc comment je peux donner un brief à l’IA et lui demander de me générer soit des idées de campagne voire même ce qu’on appelle les ad copies, donc le texte qui va être affiché dans les publicités. Le deuxème use case qu’on voit beaucoup aussi, c’est tout ce qu’on appelle les knowledge boats, c’est-à-dire comment prendre une source de savoir, une source de knowledge et la connecter avec un language model comme ChatGPT, comme ça on le spécialise sur le contexte de notre client. Et donc là le type d’usage qu’on peut voir c’est tout ce qui est FAQ chatbot pour aider les consommateurs quand ils viennent sur un site web, à trouver des réponses à leurs questions. Donc ça peut être des FAQ chatbots, ça peut être des assistants par exemple pour un client dans tout ce qui est beauté. Dernièrement on a créé un assistant qui est capable de guider les utilisateurs sur le site web en leur donnant des astuces de beauté. C’est tout simplement un language model connecté à un savoir derrière. Le troisième type de use case que je trouve très intéressant c’est tout ce qui est autour de la structuration de données. Souvent quand on va faire des missions chez nos clients, ils vont nous dire “voilà les table qu’on a, faites quelque chose avec” et parfois on va dire “cette table elle n’est pas parfaite, on aurait besoin de cette information, etc”, et ils vont nous dire que malheureusement cette information elle est sur leur site-commerce mais elle n’est pas dans une table. Donc aujourd’hui on peut utiliser les language model comme ChatGPT pour extraire des informations de données non structurées, par exemple de description de produits et les mettre dans des tables qui peuvent être utilisées par les gens qui travaillent avec la data. Donc voilà ça c’est le troisième use case et le quatrième use case, c’est un use case qui est assez embryonnaire en ce moment, donc on ne l’a pas encore fait avec les clients, mais on est en train d’expérimenter en interne, c’est tout ce qui est autour des agents analytiques, je donne un exemple ça va être plus simple, aujourd’hui j’ai un client qui a un besoin analytique, par exemple un dashboard, on est plus sur une philosophie de push, c’est-àdire que c’est les clients qui push la volonté d’avoir cette feature, cette table, ce graph et après on peuple le dashboard. Demain ce qu’on peut imaginer c’est juste une box de dialogue, une boîte de dialogue, où on va par exemple poser notre question à l’agent et c’est l’agent derrière qui va retranscrire notre question humaine en SQL par exemple, pour faire une requête voire même nous faire des graphes, donc voilà pour re situer la réponse. Voilà les types de use cases qu’on voit et il y en a un cinquième, je vais pas dire que c’est un use case mais c’est plus quelque chose de transverse à tout ça, c’est comment demain j’arrive à faire du MLOps, donc ce qu’on appelle du MLOps c’est tout ce qui est travail sur le cycle de vie du modèle en production, donc pas juste en phase de démo ou de POC, et aujourd’hui les LLM offrent pas mal de défis là-dessus, donc il faut qu’on se bâtisse un arsenal pour pouvoir mettre ce genre de modèles en production.

Très clair et très intéressant. Et avec tout ce champ des possibles, est-ce que tu vois aussi beaucoup de défis qui se présentent à nous ?

Justement en lien avec ce que je disais, il y a un défi par rapport à la production, pour mettre ses usages dans un environnement qui va servir des clients, donc on a des contraintes de latence, donc commencer les language models sur des tâches complexes par exemple, ça peut prendre 10 secondes, 15 secondes, donc voilà il faut être très judicieux dans les choix qu’on fait, on ne va pas mettre de l’IA générative partout. Donc moi typiquement ce que j’aime penser, c’est que s’il y a une tâche humaine qui prend 20 secondes, donc qui n’est pas rapide qui prend au moins 20 secondes, il y a un potentiel pour l’augmenter avec de l’IA générative, donc il y a effectivement ce défi par rapport au temps de latence. Il y a même un défi par rapport à l’hallucination, donc c’est un terme technique mais voilà c’est un terme un peu marrant qui veut dire que ces modèles parfois ils vont nous dire des choses qui ne sont pas correctes ou des choses qui ne sont pas vraiment ce qu’on voulait avoir comme réponse. Et donc il y a tout un travail sur l’alignement et comment faire en sorte qu’on ajoute à notre solution des briques de vérification de faits ou de fact checking. Ce que l’on peut imaginer par exemple dans un cas d’usage de chatbot qui est connecté à un certain savoir du client et qui répond, on peut imaginer qu’on va avoir cette IA qui fait la réponse et en deuxième partie avoir une autre IA qui prend la relève juste pour vérifier les faits. Donc elle va avoir accès aussi au savoir, à la réponse de la première et son travail c’est de vérifier les faits voire reformuler si jamais il y a une information qui n’est pas correcte. Donc voilà il y a pas mal de de défis. Il y a un défi humain aussi. Aujourd’hui il y a pas mal de clients qui vont se dire que ça leur fait peur, leurs employés peut-être qu’ils vont se sentir menacés ou quelque chose comme ça, ou ça leur fait peur parce que le paysage légal et éthique il n’est pas encore clair, donc il y a aussi un travail à faire pour surmonter ce défi humain.

Le défi humain est souvent pas négligeable. Et d’un point de vue plus personnel et plus humain, toi en tant que data scientist, comment tu décris les changements qu’amène l’IA générative ?

Effectivement on a tendance parfois à dramatiser les choses et je vois chez les profils tech qu’on a plus tendance à rester toujours sur notre garde, c’est-à-dire qu’on ne va pas suivre cette hype, cet effet de tendance de dire l’IA générative va tout remplacer donc on est beaucoup plus réservé dans les milieux techniques, on comprend que ce n’est pas quelque chose qui peut remplacer l’humain, peut-être dans dix ans, dans vingt ans quand il y aura une vraie AGI, une vraie intelligence artificielle générale, donc là peut-être qu’on va tous être remplacer. Mais pour l’instant, comment je vois l’IA générative, c’est, une technologie puissante bien sûr mais c’est aussi comme toutes les évolutions de technologie. Donc les web développeurs qui faisaient par exemple du HTML, CSS, JavaScript, au moment où il y a eu des frameworks modulaires comme React.js, Vue.js, etc, qui sont apparus il y a beaucoup de gens qui se sont posés des questions. Ensuite il y a par exemple des plateformes no codes qui te permettent aujourd’hui de faire des sites web sans devoir maîtriser du HTML ou du React.js, là aussi les webDev se sont posés des questions. Pareil pour nous les data scientists, il y a eu une époque où on codait les algorithmes par nous-mêmes, par exemple on codait un algorithme de clustering et puis il y a eu une époque où on fait juste un import de cet algorithme et on a quand même besoin de compréhension pour savoir comment paramétrer le modèle de la meilleure façon. Et aujourd’hui c’est une révolution sur tout ce qui est NLP, computer vision parce qu’avant on devait utiliser un algorithme pour détecter des topics, ce qu’on appelle le topic mobile dans des corpus textuels, aujourd’hui je suis capable de demander à l’IA de me sortir les topics les plus pertinents. Voilà ça ne va pas forcément venir remplacer tout ce que fait le data scientist, ça va venir nous augmenter, nous aider à faire les choses plus rapidement. Et moi l’aspect qui me passionne le plus, c’est la partie code donc aujourd’hui chez Artefact, on a tous accès à GitHub Copilot qui nous aide à coder, donc c’est un peu comme de l’auto completion sur du mail, quand on est en train d’écrire un mail, ça nous complète notre code, là pareil ça ne va pas venir remplacer notre travail de code, parce que ce qu’on voit sur ce genre d’outil c’est que si jamais je suis en train de coder avec de mauvaises pratiques, je ne respecte pas les pratiques de code, l’IA dans la plupart des cas elle va venir continuer mon code avec les mêmes mauvaises pratiques. Donc voilà c’est vrai que ça peut aider par exemple des personnes juniors à comprendre des choses parce qu’elles ne vont pas forcément avoir cette contrainte d’écrire du code qui est très propre, mais plus une contrainte d’explorer des technologies. Ça va aider d’autres profils en général sur la documentation du code, parfois on a tendance à oublier ça, mais ce n’est pas quelque chose qui va venir nous remplacer.

Merci beaucoup Iliass. C’était passionnant, très intéressant, merci pour ton partage de savoir, à la fois scientifique, sur l’expérience de tes cas d’usage et merci pour votre attention. Je vous donne rendez-vous la semaine prochaine pour un autre épisode Data Coffee de la plateforme média The Bridge, dédié à l’IA générative.

RESTEZ INFORMÉ

ABONNEZ-VOUS A LA NEWSLETTER THE BRIDGE.

The Bridge by Artefact

TOUS NOS ÉPISODES THE BRIDGE