Daniel Al Choboq

Transcription de l'entretien

Daniel Al Choboq

Senior Data Scientist chez Artefact

"L’IA Générative – Démo Pythie"

Bonjour à tous. Je suis Emmanuel Malherbe, Directeur de la Recherche chez Artefact et j’ai la chance d’animer ce Data Coffee de la plateforme média The Bridge. Le principe est simple, un sujet data, aujourd’hui l’IA générative, un expert data d’Artefact, aujourd’hui Daniel et un bon café. Bonjour Daniel.

Bonjour Emmanuel.

Qui es-tu chez Artefact ?

Je suis data scientist chez Artefact depuis à peu près 2 ans et mon rôle est de développer des solutions concrètes pour nos clients en se basant sur l’intelligence artificielle.

Tu étais présent à VivaTech cette année pour présenter une démo développée par Artefact qui se dénomme Pythie, est-ce que tu peux m’en dire plus ?

Oui donc Pythie c’est un outil qu’on a développé chez Artefact pour faire du social listening sur un produit à partir de vidéos YouTube. Donc d’abord c’est quoi le social listening, c’est comprendre et analyser ce dont les gens discutent et ce qu’ils disent de nos produits sur Internet et sur les réseaux sociaux. Cela va aider les entreprises et les marques à mieux prendre des décisions en écoutant les opinions et les avis des gens sur internet. Deux méthodes existent pour faire du social listening. La première méthode un peu classique, c’est d’utiliser des outils déjà existants et faire sortir des KPIs un peu classiques, qui ne sont pas très intéressants et la deuxième méthode c’est d’utiliser l’IA, l’intelligence artificielle, pour faire du vrai social listening et vraiment analyser le contenu des réseaux sociaux et dans notre cas les contenus des vidéos YouTube.

Et avant de regarder cette démo, j’ai une petite question de curiosité, pourquoi Pythie ?

Alors Pythie ça vient de la mythologie grecque et ça signifie l’oracle. Et en fait c’est ça que l’on fait un peu dans notre démo pour avoir des informations qui sont cachées.

Regardons tout de suite l’oracle alors.
Bien sûr. Donc on a ici notre web app Pythie, donc il suffit juste de taper le nom de notre produit. Là on va taper Google Pixel 7 qui est le nouveau téléphone de Google et on clique sur analyze et on va télécharger les vidéos YouTube qui parlent de Pixel 7. Et là on peut voir les top 5 vidéos, les avis des gens et c’est un contenu d’une heure, donc c’est difficile à faire manuellement. Après on peut voir les trends et les intérêts des gens pour notre produit Pixel 7. On peut voir également les autres intérêts de ces gens qui ont cherché le Pixel 7, s’ils ont cherché d’autres produits. Ensuite on passe à la partie la plus intéressante, où notre generative AI, à partir des analyses qu’il a fait sur les vidéos, va nous sortir un résumé des avis des reviewers et en fait ça va se focaliser sur les points clés et notamment les points positifs et les points négatifs de notre produit. Donc là on peut voir dans dans ce paragraphe ce sont les points plutôt positifs et ici les points négatifs du Pixel 7.

Ça, ça a été extrait à partir de toutes les vidéos YouTube ?

Exactement, ça analyse les vidéos, ça sort les points positifs, les points négtaifs, les points intéressants et les points importants et ça nous génère ce résumé. Après on passe à la partie du compétiteur et en fait là notre notre agent va détecter dans les vidéos, quels sont les produits compétiteurs qui ont été mentionnés, par exemple là dans le cas de Pixel 7, ça a détecté le Samsung S22 Ultra et l’iPhone 14. Si on clique sur submit, notre agent va télécharger les vidéos YouTube de ces deux produits, va faire les analyses et va extraire des informations et faire une sorte de comparaison ou de benchmark entre notre produit initial et les produits compétiteurs. Donc là on a le contenu sur le Samsung et là on a un autre paragraphe pour l’iPhone. Ensuite notre agent va détecter quelles sont les thématiques de notre produit abordées et discutées dans les vidéos et va automatiquement les détecter, donc là par exemple pour le Pixel 7, on a la caméra, le design, la battery life, si jamais c’était une voiture, ça serait moteur efficiency, interior design par exemple. Donc en fait ces thématiques sont automatiquement détectées et générées par l’IA avec un score associé entre 0 et 10.

Et d’où viennent ces scores ?

Si on clique sur caméra, on peut voir un peu plus en détail ce que les gens ont aimé et pas aimé sur la caméra du Pixel 7. On peut voir pour chaque point où ça a été mentionné, par quel pourcentage des reviewers, et donc à partir de ces infos là, notre agent va sortir un score entre 0 et 10 pour chaque thématique.

C’est très riche et très complet donc.

Et à la fin on a notre chatbot qui va nous servir si on veut deep dive sur certaines questions, on peut faire du chatting avec nos contenus de vidéo ou bien si on veut générer du contenu marketing d’une manière intelligente et rapide. Par exemple, on peut demander à notre chatbot de générer une pub pour le Pixel 7 mais qui vise plutôt les gens qui aiment la photographie et donc en fait notre agent est en train d’analyser les vidéos et de récupérer les infos et après ça va générer un paragraphe qui montre les côtés positifs de la caméra du Pixel 7.

L’oracle a parlé, cette démo est hyper impressionnante. Comment vous l’avez construite ?

Pour commencer, il faut bien sélectionner les vidéos qu’on va analyser, on ne prend pas des vidéos de la marque de produit pour ne pas être biaisé, on ne prend pas des vidéos qui sont très longues, qui sont difficiles à analyser donc on prend juste les vidéos simples à analyser et qui sont cohérentes avec les reviews de notre produit. On va également prendre les sous-titres générés par YouTube pour ces vidéos là, qui vont constituer notre source de données pour notre LLM. En fait ces sous-titres ils sont un peu longs pour être analysés en une seule étape donc on va les diviser en des petits paragraphes, on va faire des analyses par paragraphe. Par exemple pour faire les résumés, on va faire un résumé par paragraphe, les combiner ensemble, faire un nouveau résumé et ainsi de suite jusqu’à arriver à la fin. Donc en fait on suit la logique de faire des analyse étape par étape pour arriver à la fin à notre solution souhaitée.

Le champ des possible à l’air hyper large. Est-ce que tu vois d’autres exemples d’application ?

Bien sûr. Là on a juste analysé des vidéos YouTube, mais ça peut être élargi ver d’autres plateformes comme TikTok, Snapchat, WeChat, Twitter, etc, on peut aussi analyser des vidéos et des images et pas juste du texte et on peut élargir le scope pour les équipes marketing pour leur donner de la valeur plus intéressante en extrayant des insight en génération des contenus et ajouter de la valeur pour leur activation.

Merci Daniel c’est très clair. Mais parlons un petit peu de toi, au quotidien en tant que data scientist qu’est-ce que ça change l’IA générative ?

Donc pour moi en tant que data scientist, j’utilise le generative AI chaque jour dans mon travail, que ce soit pour automatiser des tâches un peu répétitives, comme la génération des emails, faire des résumés de longs documents, mais aussi côté technique pour faire de la génération de code en tant que data scientist, pour trouver des bugs ou réparer des erreurs. En fait ça permet de le faire d’une manière simple et rapide et cela me libère du temps pour que je puisse me concentrer sur des tâches plus stratégiques et plus créatives.

Merci Daniel, c’est une véritable révolution ce generative AI. Je vous donne rendez-vous pour le prochain épisode Data Coffee de la plateforme The Bridge sur ce thème de l’IA générative.

RESTEZ INFORMÉ

ABONNEZ-VOUS A LA NEWSLETTER THE BRIDGE.

The Bridge by Artefact

TOUS NOS ÉPISODES THE BRIDGE