Nicolas Vayatis

Transcription de l'entretien

Nicolas Vayatis

Professeur à l’Ecole Normale Supérieure Paris-Saclay et Directeur du Centre Borelli

"La recherche fondamentale n’a de valeur que si elle est ancrée dans la réalité du terrain."

Data Impact logo

Nicolas Vayatis explique la nécessité d’associer la recherche académique en IA au monde de l’entreprise. Une approche pluridisciplinaire en interaction permanente avec des terrains d’application concrets pour le passage à l’échelle de la science des données et du machine learning.

 

Caroline : Bonjour Nicolas. Pour commencer, est-ce que tu peux te présenter ?

 

Nicolas : je suis professeur d’université à l’École normale

(00:29) supérieure Paris Saclay et donc je travaille depuis environ 25 ans dans le domaine du machine learning, qui est une approche très populaire dans le domaine de l’intelligence artificielle. Et dans mon parcours en fait j’ai initialement travaillé beaucoup sur les questions fondamentales, donc là on parle vraiment de mathématiques, de probabilités essentiellement. Par la suite, je me suis intéressé à l’analyse théorique d’algorithmes pour essayer de les comprendre : il y a des algorithmes comme les algorithmes de boosting

(00:59) qui étaient utilisés au milieu des années 90 et 2000 qui étaient extrêmement performant sur les données, et qui constitue un mystère pour les théoriciens et donc ça a été un sujet assez chaud dans ces années-là. Et puis depuis une quinzaine d’années, depuis que j’ai rejoint en fait le centre de mathématiques et de leurs applications à l’École normale supérieure de Cachan à l’époque, je me suis plongé en fait dans les questionnements qu’il y a autour de la mise en oeuvre dans des applications

(01:27) concrètes des mathématiques appliquées. Là, j’ai découvert un monde fabuleux et voilà ça m’a conduit à m’éloigner un peu de la théorie et m’approcher plus de vraiment de la mise en œuvre de la façon d’incarner des modèles des algorithmes dans des outils. Alors après, il y a des allers-retours très intéressants entre la théorie et le monde réel. Enfin on pourra peut-être développer ce point par la suite. Donc voilà en gros le parcours que j’ai suivi jusque là.

 

Caroline : Nicolas tu as fondé

(02:01) le Centre Borelli. Au sein de ce centre, quelle approche de la recherche tu veux développer et comment ça se combine avec ton expérience ?

 

Nicolas : oui alors le centre Borelli, c’est une aventure collective qu’on a fondé avec des collègues, qui a mûri pendant une dizaine d’années pratiquement et qui se veut représenter, porter une certaine vision de la recherche publique. Et en fait ce centre a été créé officiellement en janvier 2020 donc c’est vrai qu’il est très jeune mais il s’appuie sur,

(02:33)  il résulte de la fusion de deux unités de recherche en mathématiques et leurs applications qui étaient basées à l’ENS Cachan et une deuxième unité qui est une unité de neurosciences dans laquelle il y avait un certain nombre de praticiens hospitaliers. Donc dans le centre de mathématiques et leurs applications n’avaient déjà une très forte pratique des interfaces notamment avec la physique et avec l’industrie et c’est là une composante en fait qui nous a aussi amené vers les sciences de la vie et

(03:07) tout le domaine des applications biomédicales. Ça ne relève pas seulement du secteur de la santé, il y a aussi la santé telle qu’on la conçoit mais il y a aussi la santé mentale, il y a aussi les interfaces humains-machines donc voilà et beaucoup de questions biomédicales qui nous intéressent aujourd’hui. Alors, du côté des mathématiques en fait, c’est un centre qui était spécialisé dans la modélisation, la simulation de phénomènes complexes mais aussi dans la science des données et donc avec beaucoup de sujets

(03:39) en lien avec l’intelligence artificielle, comme le traitement d’image, la vision par ordinateur, le machine learning évidemment. Voilà donc ça c’était des thèmes sur lesquels on travaillait auparavant. Et puis sur le versant neurosciences on est plutôt sur la question qui touche à l’étude du comportement humain et animal sous l’angle de la sensorimotricité. Là, on ne parle pas de cognition, on parle de choses qui sont relativement bas niveau donc c’est toute la circuiterie sensorimotrice et

(04:06) donc qui est aussi mesurable, objectivable. Et qu’on peut s’intéresser à des connaissances qu’on peut s’intéresser à intégrer dans justement des modélisations de comportement. Donc ça c’est très pertinent pour certaines spécialités médicales pour la neurologie, pour la rééducation, pour l’ophtalmologie, enfin il y a toute une liste de services avec lesquels nous collaborons. Donc on a environ 7 chefs de services qui sont membres de l’unité aujourd’hui, on peut dire que c’est un

(04:36) espèce de patchwork mais en fait il y a une vraie cohésion dans ce centre. Et dans notre démarche, alors pourquoi est-ce qu’on a fait d’ailleurs cette fusion ? Pourquoi beaucoup travaillé pour y arriver ? C’est qu’en fait notre recherche est motivée par les questions qui viennent du monde réel et donc pour mener à bien un tel programme et s’inspirer de ce qu’il y a dans le monde réel, il faut essentiellement deux choses : il faut une proximité avec le terrain, être capable d’observer et donc bon quand on est

(05:09) dans le champ de l’intelligence artificielle évidemment le nerf de la guerre ce sont les données.

 

Donc, il faut qu’on ait un accès à des données de terrain. Et le deuxième point qui est très important, c’est d’avoir une proximité aussi avec l’expertise des gens du terrain. Et ça, c’est très important aussi de pouvoir l’intégrer en fait dans les approches ensuite de modélisation dans les algorithmes. Et donc, il faut arriver à créer aussi cette culture commune, cette envie de travailler ensemble, de concilier

(05:36) des rythmes de travail, des rythmes de recherche qui sont extrêmement différents. Et ça, je dirais que côté mathématique, on était plutôt bien préparé pour le faire, même si bon, il y a quand même un choc des cultures, je ne vais pas le nier. Mais c’est vrai que quand on travaille avec des industriels, on est sur des plats, sur des cycles quelque part de travail qui sont de l’ordre de quelques mois, alors que les problèmes de recherche fondamentale, c’est plutôt dix ans. Donc, on était déjà confrontés à ce type de défi. Donc, avec le champ médical,

(06:04) ça nous a aussi aidé. On a mis un peu de temps pour trouver vraiment l’organisation la plus agréable et la plus efficace pour tous. Mais c’est une des choses, en tout cas, c’est un des enjeux qui pour moi justifie la création d’une structure en fait, parce qu’il y a une autre approche qui est de dire : on ne crée pas de structure commune, on ne fait que des collaborations. Et donc, chaque entité de recherche reste relativement spécialisée, relativement indisciplinaire. Et après, on fait Ocean Eleven, on regroupe des

(06:37) experts, voilà, sur un projet. Voilà, nous, on voulait tester une autre démarche. Donc, voilà pourquoi le centre Borelli.

 

Alors, pourquoi Borély ? Borély, c’est Giovanni Borelli, un savant italien du 17e siècle, si je ne dis pas de bêtises, et qui était à la fois médecin, astronome, mathématicien, physicien, enfin qui a beaucoup étudié la physiologie notamment animale et qui a, qui a aussi conçu les premiers scaphandres. Donc, là aussi, quand on parle d’interface entre l’homme et son environnement, entre… c’était une belle personnalité en tout cas qui pouvait inspirer un peu la démarche du son de Borelli. Donc, une approche atypique avec le lien très fort entre recherche fondamentale et puis réalité du terrain, comment faire pour faire communiquer ces deux mondes là. Alors il y a un point qui me semble vraiment essentiel, c’est que dès lors qu’on s’assure en fait l’accès au terrain et l’accès aux experts et qu’on s’entend bien avec les experts et qu’ on commence à avoir les premiers échanges scientifiques, il faut un moment donné qu’il y a un retour. Je dirais que si on fait juste nos publications et que ça s’arrête là, bon c’est bien, mais je trouve que ça ne permet pas vraiment d’approfondir les sujets. On gagne beaucoup plus de choses en pariant sur la durée et donc à mon sens il est important que la connaissance produite elle puisse s’intégrer aussi dans des outils qui vont rendre un service qui vont être utiles au quotidien pour nos collègues et ça d’une part ça permet de gagner l’adhésion en fait des experts métiers et puis en plus qu’on a gagné en tant que scientifique c’est qu’on a des nouveaux instruments de mesure si on est en place une chaîne de mesure pour évaluer le comportement humain sur

 

alors Giovanni Borelli c’est un savant italien du 17e siècle si je ne dis pas de bêtises et qui était à la fois médecin astronome mathématicien physicien enfin qui a beaucoup étudié la physiologie notamment animale et qui a qui a aussi conçu les premiers scaphandre donc là aussi quand on parle d’interface entre l’homme et son environnement entre que c’était une

(07:07) belle personnalité en tout cas qui pouvait inspirer un peu la démarche du son de Borelli donc une approche atypique avec le lien très fort entre recherche fondamentale et puis réalité du terrain comment si vous faites pour faire communiquer ces deux mondes là alors il y a un point qui me semble vraiment essentiel c’est que dès lors qu’on s’assure en fait l’accès au terrain et l’accès aux experts et qu’on s’entend bien avec les experts et que on commence à avoir les premiers échanges scientifiques

(07:38) il faut un moment donné qu’il y a un retour je dirais que si on fait juste nos publications et que ça s’arrête là bon c’est bien mais je trouve que ça permet pas vraiment d’approfondir les sujets on gagne beaucoup plus de choses en pariant sur la durée et donc à mon sens il est important que la connaissance produite elle puisse s’intégrer aussi dans des outils qui vont rendre un service qui vont être utiles au quotidien pour nos collègues et ça d’une part ça permet de gagner l’adhésion en fait des experts métiers

(08:16) et puis en plus qu’on a gagné en tant que scientifique c’est qu’on a des nouveaux instruments de mesure si on est en place une chaîne de mesure pour évaluer le comportement humain sur les pathologies dans l’hôpital et qu’on peut faire vraiment des mesures sur le terrain c’est comme enfin c’est comme inventé je sais pas on appelle pas ça des microscopes on appelle ça des microscopes mais on a un nouvel instrument et ça nous donne de la matière pour continuer à réfléchir continuer à observer le phénomène et ça

(08:43) ça me semble très important alors c’est vrai que là il y a un troisième pilier qui devrait venir pour vraiment bien finaliser tout ce programme c’est une entreprise qui va ensuite pouvoir développer l’instrument le maintenir et participer à à la recherche voilà sous notre forme et donc il faut qu’elle puisse aussi valoriser cet instrument donc il est un avenir donc ça c’est une question qui évidemment beaucoup plus difficile parce que en jeu des modèles questions de modèle économique de voilà

(09:13) est-ce qu’il y a un marché sur le la façon de d’assurer une interaction je dirais dans la durée et pour donner quelques exemples peut-être alors il y a quelques thèmes qu’on développe dans le laboratoire il y en a un sur lequel on travaille depuis longtemps et on a une très forte expertise et celui l’imagerie satellitaire donc le laboratoire a très longtemps été en proximité avec le CNES contribué à la spécification de certaines générations de satellites comme les Pléiades après avec les a aujourd’hui avec des entreprises en fait

(09:45) comme la l’imagerie satellitaire c’est beaucoup démocratisé enfin des accès beaucoup plus simple donc beaucoup d’entreprises aujourd’hui peuvent acheter de la donnée et de la donnée de qualité

 

en fait on collabore avec une la société Kairos pour contribuer à extraire un certain nombre d’indicateurs à partir de des images satellites pour différentes besoins des clients de Kairos et donc voilà on a à la fois l’accès aux données les questions aussi qui ont du sens pour l’entreprise et

(10:15) donc ça nourrit beaucoup de recherches en fait dans ce domaine là on a aussi des collaborations avec des industriels comme Michelin SNCF là c’est des questions sur par exemple la conception assistée par ordinateur ce qu’on appelle le s’il y est i en anglais qu’on peut engineering qui sont aussi très intéressantes et c’est vrai que bah là il faut l’expertise il faut aussi avoir les accès aux questions et aux données qui sont générées par ces ingénieurs il y a d’autres champs aussi des chances

(10:49) variées il y a par exemple la des sujets liés à la prévention donc là on a des collaborations avec les caisses de retraite avec les caisses générales de la sécurité sociale sur certaines régions et donc ça aussi ça nous permet d’être en contact direct avec le terrain les enjeux que ça représente aussi en termes de politiques publiques ça permet de voilà aussi d’orienter quelque part les contributions vers des sujets qui vont avoir du sens pour nos partenaires c’est un petit échantillon c’est pas du tout

(11:16) exhaustif mais ça vous donne un petit échantillon de de ce qu’on fait et cette proximité avec le terrain j’imagine que ça te donne un regard assez différent sur les projets qui sont portés en intelligence artificielle les projets qui justement suscitent les investissements les attentes qu’est-ce que toi tu vois comme biais comme dysfonctionnement dans ce qu’on fait en ce moment alors ça c’est une question que j’apprécie beaucoup parce que ça permet justement de développer un peu la vision et puis de voir ce qui va

(11:46) pas en fait enfin mon sens encore une fois là je donne mon point de vue mon expérience de ces questions mais en fait il y a un biais très fort qui vient des success stories qui a autour de l’intelligence artificielle quand je parle de success stories c’est vraiment des réussites au niveau industriel on est vraiment passé à l’échelle et là effectivement il y en a il y en a qui sont vraiment impressionnantes dans le monde de l’Internet donc on peut penser à des moteurs de toutes sortes les moteurs de recherche les moteurs de

(12:18) recommandation les moteurs de traduction les moteurs de ciblage publicitaires il y a tous ces moteurs là et ce qu’on est capable de faire les moteurs de reconnaissance de forme enfin dans d’analyse d’image enfin voilà tout tout ces technologies sont vraiment impressionnantes aussi bien du point de vue scientifique que technologique parce qu’il y a aussi derrière beaucoup de général il y a vraiment voilà l’intelligence humaine là pour le coup qui a été déployé de manière stupéfiante

(12:48) donc mais c’est induit un biais pour je dirais le reste des secteurs de l’activité humaine si on veut faire de l’IA pour la santé pour l’industrie alors il y a un côté positif parce que on peut dire que ça inspire ça nous oriente vers des peut-être des innovations possibles de se dire ben les moteurs de recommandation pour en faire pour certains métiers ça pourrait être alors pour des traders en finance ça pourrait être pour des pour des médecins non spécialistes pour mieux orienter leurs patients

(13:17) voilà pour même recommander des thérapies ou enfin voilà on peut imaginer plein de déclinaisons de ces idées là donc ça c’est c’est plutôt bien mais mais par contre ça amène quelque part à vouloir calquer la même méthodologie dans des contextes qui sont radicalement différents et pour lesquels en fait ces méthodologies vont avoir des difficultés en fait à vraiment permettre d’aller jusqu’au bout de l’industrialisation et là je vois je vois deux gros problèmes il y a un premier problème c’est lié

(13:50) vraiment au risque c’est à dire que là on parle de décision basée sur des algorithmes donc si la décision ne m’est pas en jeu des vies humaines qui est le cas dans l’Internet majoritairement enfin en tout cas il y en a pas à court terme même si on découvre aujourd’hui que voilà l’usage des réseaux sociaux il y a ça amène voilà des risques psychologiques même physiologiques géopolitique etc mais bon ça si on voit pas les effets immédiatement donc on a un peu de temps pour voilà faire un peu dia par contre

(14:18) si on est dans le domaine des transports dans le domaine de la santé dans le domaine de l’industrie aussi on peut avoir des catastrophes vraiment donc ça je dirais que à moins que lias soit hyper performante avant de convaincre un industriel ou un médecin de pouvoir appuyer ses décisions sur de l’IA c’est beaucoup plus exigeant donc c’est pour ça qu’il y a aussi tous ces aujourd’hui tous ces efforts sur la gouvernance des IAs la régulation la certification des IA donc on se demande s’il faut pouvoir

(14:48) certifier des algorithmes comme on fait pour des dispositifs médicaux est-ce que de quoi ça relève ou c’est comme des médicaments enfin voilà il y a ces questionnements là aujourd’hui donc ça c’est un premier point le risque pour les vies humaines et puis le deuxième point il est lié un peu à l’adoption en fait de la technologie par les opérateurs humains les utilisateurs finaux dans l’Internet on est plutôt dans un contexte B2C dans les autres secteurs on est plutôt en général sur du B2B donc l’utilisateur final c’est un

(15:19) expert et donc avant qu’il accepte quelque part d’être alors remplacé augmenter je sais pas trop ce qu’il faut dire mais voilà dedans en tout cas d’interagir avec un algorithme sur une connaissance qu’il pense maîtriser parfaitement ben là il y a tout un travail à mener en fait conjointement avec ses utilisateurs et en général comme on opère plutôt en silo en fait on leur propose des outils qui ne comprennent pas qu’ils ne s’approprie pas et donc là aussi c’est donc ça veut pas dire qu’on

(15:51) peut pas y arriver je pense qu’il y a un potentiel très fort mais il y a un sacré défi de méthodologie et d’organisation aussi pour les entreprises pour y arriver au sujet des données d’entraînement les corpus avec lesquels on entraîne ces algorithmes d’intelligence artificielle quel lien tu fais entre la qualité de ses corpus de ces données et puis les résultats qu’on va avoir après en intelligence artificielle et est-ce que là aussi tu as des raisons d’être critiques oui en fait ça rejoint un peu

(16:20) ça rejoint c’est une façon aussi de rentrer un peu dans le détail de de la question précédente des points que tu soulevé dans la question précédente tout d’abord bon sur les données ce qu’il faut dire c’est évidemment un point clé puisqu’on va utiliser des données pour calibrer des règles de décision à partir d’algorithmes d’apprentissage donc si les données sont mauvaises les règles de décision seront mauvaises alors qu’est-ce que ça veut dire mauvais enfin bonne ou mauvaise donnée on a longtemps

(16:48) je pense une illusion et c’est aussi quelque chose qu’Internet à quelque part pousser que si on a beaucoup de données c’est bien et c’est vrai que dans l’internet c’est aussi une des clés de donc ça dans l’Internet on appelle ça la

(18:01) notation c’est pourquoi on fait ça c’est parce qu’on en fait le les techniques d’apprentissage automatique qui sont réputés fonctionner sans les techniques d’apprentissage supervisées superviser ça veut dire qu’on a des annotations sur les données des étiquettes et ça c’est des opérateurs humains qui à notent des données donc dans l’Internet on est sur du B2C à noter des images n’importe qui peut le faire si on est dans des domaines à haute à forte expertise par exemple à noter des des radiographies

(18:33) enfin tout ce qu’il y a tout ce que produit l’imagerie médicale bah là il faut des radiologues pour le faire donc ça c’est voilà c’est c’est un des points clés donc il y aurait beaucoup à dire sur ces trois aspects des données mais d’ailleurs ils sont pas forcément indépendants mais peut-être ce que je pourrais juste voilà pour illustrer un peu ce que je pourrais dire c’est bon moi ce qui m’intéresse beaucoup c’est justement tout cet aspect enrichissement de de la donnée par la notation qui

(19:05) questionne quelque part la façon de codifier l’information parce qu’il faut la standardiser pour pouvoir faire opérer des algorithmes sur les données et donc quand on codifie ça veut dire que quelque part on gèle la connaissance donc est-ce que codifier ça entrave aussi la possibilité de continuer à développer la connaissance par exemple dans le domaine du par exemple si on veut faire du diagnostic médical avec du machine learning on va s’appuyer sur des catégories nosologiques qui ont été alors si je parle pour la neurologie où

(19:41) j’ai peut-être un peu plus travaillé qui se base sur une typologie qui remonte au XIXe siècle on a aujourd’hui une population qui est vieillissante qui va on a souvent avoir plusieurs pathologies en même temps et donc là on va avoir une espèce d’hybridation quelque part des troubles et donc comment on fait opérer des algorithmes dans des contextes comme cela voilà donc je pense que il faut être prudent avec ces notions de codification puis aussi une régression du savoir parce que si on ne le remet pas en

(20:12) question ces catégories ben finalement on se ferme la porte de pouvoir explorer au delà des nouvelles catégories enfin voilà il y a bon je vous le dis de manière un peu schématique mais je pense que il y a il y a un point à creuser en fait sur la la façon de voilà l’appauvrissement qui peut y avoir à travers une numérisation peut-être un peu voilà un peu rapide et après dans l’instanciation de l’usage des outils qui ne seraient pas forcément ouverte ce qui est ensuite de voilà des nouvelles connaissances qui sont injectées dans

(20:41) dans les boucles voilà de d’actualisation des algorithmes des règles de décision etc donc c’est super intéressant parce qu’effectivement l’intelligence artificielle on associe à plein de promesses pour améliorer la connaissance humaine et en même temps il faut pas oublier que cette intelligence elle repose sur des corpus d’entraînement qui viennent du passé et de notre façon de catégoriser les éléments de façon de prendre de l’information dans le passé et donc effectivement d’où le risque de

(21:10) reproduire soit des biais soit des catégorisations des visions du monde qui nous viennent d’avant et de pas s’ouvrir à des choses qui pourraient être nouvelle dans notre façon d’aborder le monde et du coup ça montre qu’il y a bien quand même des boucles de rétroaction comme tu viens de le dire entre avec quoi un aliment que nous intelligence artificielle nos algorithmes d’entraînement comment ces algorithmes là influencent notre façon de percevoir le monde nos connaissances comment ça du coup ré serait engrange

(21:40) dans la façon dont on alimente c’est ces boucles là qu’est-ce que comment toi tu vois c’est les interactions entre humains et intelligence artificielle c’est une question vraiment très très intéressantes et à mon avis qui soulève beaucoup de de questions qui mériteraient en fait des programmes scientifiques complets pour vraiment aller jusqu’au bout il y a une question à se poser c’est finalement pourquoi on veut faire de l’intelligence artificielle très souvent on vient nous voir en nous

(22:06) disant j’ai une question difficile mes ingénieurs n’y arrivent pas on va faire l’intelligence artificielle pour y arriver alors par définition le paradigme actuel en tout cas qui est dominant dans l’intelligence artificielle et qui repose sur de l’intelligence enfin sur des algorithmes apprenants donc ils vont brasser des données comme tu le disais des données du passé en fait que font ces algorithmes ils vont ils vont identifier des régularités statistiques donc c’est typiquement les événements

(22:30) fréquents sur lesquels les algorithmes seront performants alors on pourrait se dire que une fois qu’on sait bien modéliser les événements fréquents on peut mesurer ce qui s’écarte de ce qui n’est pas fréquent mais bon c’est beaucoup plus délicat donc j’aurais tendance à dire pour le dire un peu vulgairement que quelque chose artificielle ça va un peu jouer le rôle du pilote automatique c’est-à-dire quand il se passe rien ou qu’on a des tâches répétitives ben hop on peut on peut s’appuyer sur sur l’IA

(22:59) et ça ça pose la question ensuite de la de la complémentarité avec l’humain et aussi de ce que tu disais les rétroactions c’est-à-dire quel effet ça va avoir ensuite sur l’humain et en fait on voit qu’il peut y avoir même des effets physiologiques des formes de régression finalement des capacités humaines en utilisant des algorithmes on peut voir ça par exemple alors il y a des domaines qui sont sur lesquels on étudie beaucoup ces questions ben là où il y a des pilotes automatiques par exemple pour conduire

(23:30) des avions et ce qui est très intéressant c’est justement de regarder les transitions c’est à dire quand est-ce que le pilote automatique donne la main redonne la main à l’humain et c’est vrai qu’il y a un dogme dans la conception des systèmes qui est de dire l’humain voilà quand c’est compliqué il faut que l’humain intervienne mais ce qui n’est pas évident parce que déjà l’humain il faut qu’il ait une bonne intelligence de la situation et justement l’intelligence de la situation

(23:59) et de là généralement quand il effectue cet âge répétitives s’il ne les effectue pas et qu’il n’est pas dans un état de vigilance qui lui permet de vraiment de comprendre ce qui se passe c’est décisions seront moins bonnes que celles de l’algorithme et donc dans l’aérien c’est bon c’est particulièrement délicat parce qu’il y a aussi des illusions sensorielles dans des situations un peu extrêmes et donc il y a une vraie aussi un vrai une vraie question sur comment perçoit l’environnement c’est pas

(24:22) seulement ce que dit l’algorithme c’est aussi on le met en regard de voilà qu’est-ce qui se passe à l’extérieur comment l’appareil évolue et voilà donc là c’est il y a vraiment des situations extrêmement complexes et là-dessus en fait ça met en jeu des questions de neurosciences nous c’est aussi pour ça qu’on s’intéresse aux neurosciences puisqu’ il y a des questions sur la prise d’information sur comment on intègre comment combine des informations des informations sensorielles qu’on peut

(24:48) avoir parlé système mais aussi parce on perçoit par la proprioception par tout ce qui est ce que notre système vestibule l’air peut percevoir de voilà ou le corps et ou la machine se trouve et comment dans quelle position elle est et puis après il y a les comme on active l’action motrice voilà pour agir en fait sur le système et voilà tout ça c’est c’est des choses qui sont voilà qui font l’objet d’études actuellement et qu’on je pense qu’on n’a pas encore on maîtrise pas complètement tous les

(25:16) aspects et en tout cas les ingénieurs qui font la conception de système sont très loin en fait de ces questions on a plusieurs images de la collaboration entre humains et intelligence artificielle et rapidement spontanément on a tendance à avoir cette image que l’intelligence artificielle va faire ce que l’humain sait pas faire parce que ce qui sort comme résultat d’une intelligence artificielle d’un algorithme c’est souvent un peu obscur et donc ça a l’air compliqué plus intelligent que ce que nous on pourrait

(25:39) faire mais effectivement on peut avoir d’autres modèles de cette collaboration comme l’intelligence artificielle fait ce que les humains n’aiment pas faire ce qui est trop répétitif trop appétissant ou bien l’intelligence artificielle fournit des outils pour vous permettre à l’humain d’aller plus loin mais c’est toujours en marche pied pour la connaissance humaine et c’est peut-être là où les interfaces ont leur rôle à jouer parce que j’imagine qu’on ces différents modèles d’intelligence

(26:00) artificielle et de la collaboration avec l’humain vont induire des interfaces différentes si on reste dans des choses complètement absent l’interface est pas éclairé on va rester dans un modèle un peu d’intelligence artificielle supérieure à l’humain selon la façon dont on envisage les outils est-ce qu’on peut comme ça enduire des modèles de collaboration oui je pense que c’est très juste la réflexion sur les interfaces elle fait aussi partie de mon avis du sujet c’est vrai qu’aujourd’hui

(26:24) par défaut l’interface et les soins visuels alors elle commence à être un peu sonore dans tout ce qui est domotique un peu je passais 2.0 ou combien de points zéro mais mais c’est vrai qu’on est quand même beaucoup sur la vision et ça aussi c’est quelque part un héritage de voilà de de d’Internet mais c’est vrai que dans des contextes de prise de décision dans des situations extrêmes je pense au transport notamment

 

(27:49) va essayer de comprendre au mieux c’est ces sujets donc je suis tout à fait d’accord que la conception des interfaces c’est aussi quelque chose qui à mon avis n’est pas très élaboré aujourd’hui ça doit beaucoup se nourrir des voilà des aussi des recherches qui se font en neurosciences et voilà et c’est clairement aussi une direction enfin je pensais une brique de l’édifice c’est à dire si on a des algorithmes qui prennent de très bonnes décisions mais ils sont incarnés dans des interfaces

(28:14) qui ne sont pas adaptées à la façon dont l’opérateur humain va pouvoir voilà prendre en compte c’est c’est recommandations ben voilà on aura on aura des difficultés je pense à faire adopter ces technologies par les opérateurs encore une fois on est dans un cas ici d’opérateur experts donc voilà donc ils vont quand même avoir une forme de méfiance des algorithmes si ça leur apporte une surcharge cognitive ils vont pas ils vont pas acheter l’interface compter possibilités nous quand on regarde ces

(28:51) différents sujets importants de l’interface l’importance d’une collaboration humain algorithme qui sont enrichissantes de re produire le passé forcément de façon bête et méchante la nécessité de prendre en compte les réalités de terrain la nécessité de donner du feedback sur le terrain quand on regarde tous ces sujets là dont on vient de parler est-ce que on n’a pas un peu l’impression d’un décalage entre aujourd’hui ce qui est un peu sexy attractif dans le monde de la recherche fondamentale dans l’intelligence

(29:17) artificielle et puis ce dont on a besoin pour améliorer nos résultats de terrain nos mises en application opérationnelle il y a en fait il y a deux enfin dans la science en fait mais je pense c’est peut-être pareil dans notre domaine je parle de la science parce que c’est mon domaine et que je connais un peu les la sociologie aussi de certaines communautés en tout cas c’est vrai qu’il y a voilà il y a un peu des des sujets qui sont réputés plus attractifs alors bon voilà parce que il y a peut-être un

(29:50) chercheur qui est extrêmement brillant qui en parle très très bien qui va voilà qui va attirer finalement des jeunes vers ces thématiques là et là c’est peut-être par pure intérêt intellectuel mais c’est très bien je remets pas du tout ça en question il y a aussi des industries qui cherchent à voilà à tirer aussi des gens brillants et donc vont peut-être jouer ce jeu là aussi sans que ce soit forcément leurs besoins concrets dans leur métier mais parce que c’est une façon de voilà d’avoir accès à des gens

(30:24) brillants et donc voilà si on a si on a les cerveaux on se dit qu’après ça c’est aussi un élément important pour les entreprises mais c’est pas très honnête quelque part et après il y a voilà d’essayer de comprendre au mieux quelles sont les voilà les besoins réels c’est pas forcément les plus attractifs à priori parce que ils sont peut-être moins bien définis ils sont plus difficiles à raccrocher à système scientifique précis parce que peut-être qu’il va falloir mobiliser plusieurs connaissances dans des domaines

(30:54) différents d’ailleurs pour les faire progresser et ça ça c’est un vrai défi et puis je dirais même que pour les scientifiques aujourd’hui qui veulent évoluer dans leur carrière ils ont quand même intérêt à se spécialiser donc quelque part et avant d’avoir fait leurs preuves dans un domaine très précis où ils ont été un peu les champions il va avoir beaucoup de mal à valoriser leurs efforts si ce sont des efforts interdisciplinaires sur des sujets qui au départ sont très appliqués parce que ça va être assez

(31:24) long donc il y a toutes ces difficultés là qui font que voilà c’est c’est assez compliqué de je pense d’amener de manière massive finalement le le monde scientifique vers ces questions mais voilà il y a quand même je pense des modes de publication aussi qui vont à mon avis ce généraliser sur voilà la façon de publier des algorithmes par exemple et qui vont à mon avis faciliter peut-être c’est cette voilà c’est ces allers-retours entre voilà des sujets très concrets qui ont un impact dans la vie réelle et puis

(32:01) des questions plus fondamentales qu’on va quand même pouvoir valoriser dans des communautés scientifiques qui voilà attendre qu’ on résolve des problèmes difficiles c’est à dire que si on résout pas des problèmes difficiles en science on a du mal à voilà à se distinguer des autres voilà un peu le les défis donc c’est voilà le chemin il est pas pavé de rose mais en tout cas je pense que ça mérite ça mérite vraiment de de s’y intéresser et oui parce que entre un certain ministres system sur certains

(32:29) domaines plus le fait que le système est fait telle sorte à privilégier les la spécialisation thématique effectivement ça va pas très bien avec l’enjeu de croiser les expertises faire du multi sectoriel et retourner aux réalités de terrain et alors du coup comment on compense ça comment comment tu fais au sein du centre Borelli quelle méthode vous avez mis en place entre chercheurs pour essayer de d’aller dans un une meilleure direction bon déjà moi je tiens beaucoup à développer la théorie ça me semble

(32:59) vraiment important parce que c’est ce qui aide à prendre du recul en fait sur même il y a peut-être des voilà dans des applications va peut-être apporter une réponse extrêmement simple mais si on n’avait pas derrière une connaissance très fine de voilà de sujets beaucoup plus profond plus plus pointu on aurait du mal à justement à identifier cette solution simple donc je pense que c’est très important de cultiver cette connaissance théorique et pour ça au sein de Borelli en fait ce qu’on essaye de faire c’est en fait de

(33:30) créer un milieu réactif ou il va y avoir des gens avec des profils assez variés on va avoir des jeunes qui sont passionnés de théoriques qui veulent pas entendre parler de d’application au contraire on va en avoir d’autres qui vont se passionner pour certains terrains d’application et ensuite ce qu’on va faire c’est ben on va essayer de positionner chacun en fonction de de ses talents de ses envies on a suffisamment de projets pour ça on a suffisamment de aussi de de différents niveaux de maturité sur ces différents

(34:00) projets donc sur des projets où on a déjà travaillé pendant longtemps on peut avoir fait émerger des questions théoriques qui dépassent le projet et sur lesquels on va pouvoir intéresser un quelqu’un qui veut vraiment faire de la théorie et on sait que ça me donnera du recul peut-être pour aller plus loin sur des questions similaires et puis après il y en a d’autres qui vont être peut-être plus en première ligne des applications qui vont faire des choses peut-être plus empiriques voilà qui vont être en prise avec des équipes

(34:30) interdisciplinaires parce qu’ils aiment bien avoir ce voilà cette ce type de de d’échanges et ils vont bénéficier par ailleurs c’est-à-dire il faut créer aussi des moments où il y a des partages et où les gens voilà racontent un peu leurs travaux et après change un peu aussi aux responsables scientifiques de créer des ponts quand il y en a c’est à dire que si on identifie des questions théoriques pas de trouver ensuite des des personnes dans le laboratoire qui sont capables de voilà d’aller plus loin de creuser cette

(35:00) question théorique en tant que tel et puis et puis vice-versa s’il y a des choses théoriques dont on pense que ça peut présenter un intérêt pour voilà dans la mise en œuvre de certaines certains algorithmes et ben on va essayer de voilà de créer les conditions pour queier cette cette communication en interne donc voilà donc je mais je pense que c’est vraiment la voilà la diversité des profils et puis de voilà d’avoir cette culture cette envie d’être dans un environnement qui est pas l’environnement standard c’est-à-dire

(35:27) qu’on va pas forcément trouver des gens super pointus sur notre sujet de thèse ça on va plutôt aller chercher cette expertise ailleurs parce que par définition quand on fait des applications on sait pas ce qu’on va mobiliser comme connaissance et donc faut être très ouvert et ça c’est aussi un des je pense une des difficultés qu’on peut avoir je pars pour la France parce que c’est quand même que je connais mieux mais voilà de d’avoir des unités de recherche très très spécialisées mais en fait

(35:53) elles vont voir voilà si vous voyez je sais pas si vous avez un marteau vous allez voir Davis partout l’exemple qu’on donne tout le temps il y aura qu’une forme de vie quoi quelque part parce qu’on a que Smart là on a pas d’autres et donc je trouve que ça c’est une vraie difficulté en fait pour pour permettre à des théoriciens de de s’ouvrir sur des sur des applications donc il faut avoir cette cette diversité cette couverture un peu plus large on couvre pas tout parce que c’est pas

(36:20) possible mais en tout cas dans une certaine mesure quand même de pouvoir cultiver cette diversité ça me semble très important et quand vous faites pour capitaliser sur les connaissances les expertises de tous ces différents profils de chercheurs et de praticiens parce qu’entre les discussions un peu informelles le partage le côté un peu ébullition du labo et puis la publication des papiers de recherche très froid très figée dans très longtemps comment on fait pour mettre en commun pour mettre en commun les recherches en

(36:50) cours pour mettre en commun les connaissances qu’on est en train de sédimenter sur lequel on veut du feedback comment ça s’organise avec avec des outils avec des méthodes oui il y a déjà bon il y a la vie de laboratoire bon qui permet de faire certaines choses donc il y a des moments d’échange qui ont des focus un peu différents il y a des on va voir des séminaires très spécialisés sur un domaine donc là c’est les experts du domaine qui se réunissent on va avoir des réunions sur des projets où là il va y avoir des gens de plein de

(37:18) domaines différents qui vont en discuter on va voir on a fait par le passé en relance là des soirées scientifiques où on invite tout le monde et on va choisir deux trois sujets sur lesquels on va on va faire parler certains collègues et là l’idée c’est vraiment de pouvoir toucher un public plus large dans le laboratoire donc il y a toute cette vie voilà scientifique qui qui joue en partie ce rôle là mais je te rejoins sur le fait que il faut aussi des outils c’est absolument essentiel je pense que

(37:49) de toute façon tout organisation et confronté à cette question de la capitalisation des connaissances et de l’expérience acquise et ça c’est un vrai sujet je pense que c’est un sujet vraiment difficile et nous en tout cas sur une partie alors au moins sur nos productions une partie de nos productions scientifiques qui prennent la forme de logiciel alors il y a plusieurs formes de contribution logicielles je sais pas s’il faut que je rentre dans les détails mais bon on peut dire qu’on a en gros

(38:14) délivrés par exemple les libérer python là qui ont qui sont très très utilisés sur des problématiques assez génériques donc dans le machine learning dans la livraison c’est ça qui quitte learn qui est développé par des collègues de l’INRIA à Saclay et qui est devenu un best-seller absolu enfin voilà je pense que toutes les entreprises du monde qui utilisent aujourd’hui SAIK learn mais ça c’est un peu un couteau suisse ça sert à faire plein de choses et après il y a des algorithmes qu’on va instancier sur

(38:43) des applicatifs très précis je prends un exemple il y a des communautés en traitement donc c’est des sous-communautés dans le monde du traitement d’image qui travaille sur des images de visage de visage humain voilà c’est du travail que sur ces images là et d’ailleurs si vous allez voir les images dans mon groupe et que vous leur montrez des visages des problèmes par exemple dans des sujets dans le médical sur les expressions faciales ils disent oulala c’est très très pointu nous on fait pas ça alors

(39:11) qu’ils sont très très forts et qui font déjà plein de choses mais les visages c’est un truc à part et donc avec des communautés qui s’organisent alors qui vont aussi créer des corpus de données spécialiser pour cette application là et donc les évaluations tous les benchmap vont se faire sur une certaine typologie de données et donc on va prendre des algorithmes qui ont une une partie qui est générique mais ils vont être spécialisés après sur sur certains types de données et donc ça c’est une idée en

(39:41) fait quelque part qu’on a reprises alors c’est vrai que dans le traitement d’image c’est un des domaines où il y a le plus de maturité puisque c’est les plus vieilles donner alphanumérique quelque part c’est celle sur lesquelles on a le plus de travaux le plus de recul et donc là on peut c’est une initiative en fait qui est née dans dans l’ancêtre du centre Borelli au cmla c’est mon collègue Jean-Michel Morel qui avait lancé en 2010 un projet de alors qu’elle a la fois une plateforme et un journal

(40:10) en ligne dans lequel on publie en fait des algorithmes mais pour des usages très précis donc là c’est dans le monde du traitement d’image initialement mais on est en train de décliner cette idée dans sur d’autres types de données et là le principe c’est qu’on publie un algorithme donc ça veut dire déjà qu’on va on va décrire c’est pas simplement un code qui open source et qui est documenté ça va beaucoup plus loin il y a un article en plus de l’algorithme qui va détailler vraiment tous les tous les

(40:39) points en fait qui permettent qui permettra à quelqu’un de réécrire l’algorithme en partant de zéro simplement à partir de l’article papier donc là il y a tout un travail d’ailleurs de pire review comme on fait pour les articles scientifiques donc il y avait des relecteurs qui vont s’assurer que effectivement on peut reproduire parfaitement l’implémentation qui proposait à partir de la description qui est faite de l’algorithme donc ça c’est une première exigence et la deuxième exigence c’est de fournir un

(41:06) démonstrateur en ligne qui va permettre à quelqu’un qui ne connaît rien aux algorithmes de de faire tourner en fait ce qu’il y a dans l’article sur sa propre donnée c’est-à-dire qu’on peut déverser sa donnée sur un sur la plateforme et récupérer un résultat en faisant opérer donc l’algorithme donc et à terme on pourrait se dire qu’on pourrait même réécrire l’article de manière automatique avec les données du lecteur en fait ce qui va vraiment l’intéresser donc ça là si on arrive à

(41:36) faire ça quelque part je dirais que ben c’est la science telle qu’on aimerait l’avoir c’est à dire que c’est de la connaissance qui ensuite directement accessible à chacun enfin des utilisateurs potentiels de cette connaissance de manière directe sans intermédiaire et sans avoir besoin de quelqu’un qui va faire l’exégèse des articles et ça ça permet ensuite une fois qu’on est passé sur ce model là ça permet aussi d’avoir des états de l’art vivant en fait de des algorithmes c’est

(42:02) à dire que si on a une base de données ben on peut directement évaluer un algorithme non pas sur les benchmarks de référence qui sont ceux qui permettent de publier aujourd’hui dans les communautés d’apprentissage mais sur des vrais données en fait et de dire quand est-ce que ça fonctionne quand est-ce que ça fonctionne pas et de cette manière ça nourrit aussi la recherche parce que quand on fait la recherche on cherche toujours les limites de ce qui existe donc ça permet de justement de repousser les limites en tout cas d’identifier où

(42:31) sont les questions pour la suite donc voilà donc cette plateforme elle a voilà elle s’est beaucoup développée et c’est un outil très versatile qui permet finalement de d’intégrer des algorithmes qui font autre chose que du que du traitement d’image ça permet de faire du transfert de la technologie là on a un projet qui vise à en faire une plateforme pour la formation des gens qui ne sont pas des experts concepteurs diables et qui sont plutôt dans des domaines scientifiques divers et variés enfin tout ça pour ma

(43:02) réponse un peu longue mais ça répond quand même je pense à la l’importance de aussi de penser aux outils pour pour cette capitalisation tout à fait retourne encore sur les outils et peut-être même en résultat au partage des algorithmes du code et des outils qui permettent de lediter mais il y a peut-être aussi un sujet sur la publication des données la mise en commun des données puisque finalement c’est un peu le nerf de la guerre quand on fait de l’intelligence artificielle c’est d’accéder à des jeux de données

(43:31) des jeux d’entraînement des jeux de validation qui sont consistants conséquents et c’est pas toujours facile d’y avoir accès de façon libre et ouverte et j’imagine qu’il y a peut-être là aussi un enjeu pour les chercheurs dans leur accès aux données comment aujourd’hui ces chercheurs la font pour accéder au corpus et ce qu’ils ont du mal est-ce qu’il y a des mouvements qui s’organisent pour mutualiser les corpus alors il y a des communautés qui ont cette pratique depuis longtemps je

(43:56) parlais de la des gens qui travaillent sur les visages humains donc eux ont créé une enfin un site web qui s’appelle je sais plus comment s’appelle schuman face is in the wild je crois un truc quelque chose comme ça et donc c’est voilà ils ont une base de données c’est je publier des dizaines de milliers de visages humains alors tout a été récupéré sur Internet plus ou moins donc là il y a effectivement une communauté qui a ce corpus et qui travaille sur ce corpus mais c’est je dirais que c’est pas la

(44:26) règle généralement les gens gardent quand même jalousement leurs données et c’est vrai que les les équipes de recherche académiques en tout cas dans le secteur public sont vraiment sevrés de données c’est à dire que c’est très difficile d’avoir accès à des données une des raisons pour lesquelles nous avons créé le son de Borély c’était justement de aussi de pouvoir créer nos propres bases de données notamment dans le champ biomédical puisqu’on a on a cette capacité en fait les mettre des capteurs c’est plus des capteurs

(44:57) grand public ou des capteurs à bas coût dans des consultations médicales et de générer nos propres corpus de données sans attributaire des dispositifs médicaux qui sont voilà qui sont complètement pour le coup verrouillé complètement opaque donc ça c’est pour nous c’est une vraie richesse et j’ai envie de dire c’est presque une question de survie pour des gens qui font de la recherche en sciences des données s’ils n’ont pas accès à des données à des vrais données quelque part après la

(45:20) question de voilà quels sont les données intéressantes aussi parce que finalement il y a pas mal de données publiques aussi on parle beaucoup d’Open Data il y a les voilà au début du machine learning vous avez une université en Californie université d’Irvine qui avait justement mis en ligne beaucoup de jeux de données publiques donc ça ça a été le terrain de jeu aussi pour pour mes collègues et moi pendant de longues années mais finalement c’est pas des données très intéressantes c’est des données

(45:48) relativement à pauvres dans lesquels les descriptifs et quelques lignes les gens qui faisaient de la science des données s’intéressent simplement à la nature des variables mais pas forcément à l’interprétation des résultats au sens qui pouvait y avoir derrière l’exploitation de ces données aussi tout simplement parce qu’il n’avait aucune information sur le contexte dans lequel on avait acquis ces données quels étaient les questions des des scientifiques en fait qui s’intéressent à ces systèmes qui ont collecté ces

(46:16) données donc quelque part là aussi je trouve que travailler sur des données d’angle du ciel c’est voilà oui ça permet de comparer des algorithmes entre eux mais d’une certaine manière ça me donne aucune garantie sur ce qu’on sera capable de faire sur un problème industriel très con avec peut-être des critères aussi d’acceptation de validation qui vont être différents des critères académiques enfin voilà donc moi c’est on revient un peu à ce que j’ai dit en introduction pourquoi Borelli

(46:44) c’est aussi pour avoir cette proximité avec le terrain avoir accès aux données mais aussi savoir quels sont les bonnes questions sur les données voilà et à partir de là une fois qu’on fait ce travail ça veut pas dire qu’il y a pas un partage à faire simplement je pense qu’il doit un peu comme la plateforme people que je mentionnais tout à l’heure mais du processing online et d’ailleurs on s’en sert aussi pour publier des datacés c’est qu’ il faut que ça vienne avec une description assez riche du jeu

(47:06) de données donc il y a aussi dans lequel on va décrire l’acquisition quel capteront été utilisés qu’est-ce qu’on mesure vraiment qu’est-ce que quel est le phénomène qui avait qu’on essayait de numériser et aussi de voir comment on a enrichi ces données puisque il y a aussi des formes d’annotations où il y a un travail là ça peut être assez riche notamment si on travaille sur des données structurées où il y a des relations entre les différentes variables etc donc il faut

(47:35) décrire en fait tous ces éléments là pour qu’ensuite les gens qui seraient un peu plus loin de voilà de l’expérimentation puisque quand même identifier la nature des questions qui ont du sens autour de ces données et là je pense que ça donne un chemin pour aller dans ce sens-là après il faut reconnaître aussi que la question de l’accès aux données c’est aussi un problème politique quelque part c’est à dire que dans le domaine de la santé je dirais on a le nos hôpitaux qui achètent des dispositifs et qui

(48:08) n’ont pas accès aux données brutes même dans des situations très extrêmes comme celles des attentats les respirer ou la crise covid les respirateurs même de l’armée française ben en fait on n’a pas accès aux données brutes donc tout ça ça questionne quand même aussi les choses mais là je pense que ça dépasse ce que les scientifiques peuvent faire enfin ils peuvent indiquer recommander mais je pense que là il est vraiment des questions politiques dans ces questions d’accès aux données brutes et c’est vrai que ça ça freine la

(48:36) recherche en tout cas on le voit apporter une approche donc de projets un peu emblématiques de ta démarche de recherche de celle du centre Borély je peux parler peut-être de ce qu’on a fait dans le domaine biomédical enfin notamment avec les hôpitaux en fait et c’était d’ailleurs un des premiers projets sur lesquels on a travaillé c’était de digitaliser un examen clinique en neurologie donc un examen qu’on est généraliste font aussi s’appellent le test de Romberg et où la personne se tient debout immobile

(49:12) pendant quelques secondes d’abord les yeux ouverts ensuite les yeux fermés et ça c’est un test qui permet d’évaluer alors logiciel ça dépend de l’expérience du spécialiste mais a priori assez finement l’origine des troubles le type de pathologie en tout cas sur tout ce qui va relever des troubles de l’équilibre parce que c’est un truc vestibulaire etc et donc cet examen il a toujours été pratiqué c’est l’oeil du médecin quelque part qui évaluait l’écart qui pouvait y avoir

(49:42) entre l’examen les yeux ouverts et l’examen les yeux fermés et donc on se proposait de numériser cette évaluation pour que alors pas du tout pour le remplacer mais pour lui donner une base un peu objective en fait de ce qui lui-même observe alors pourquoi c’est important d’avoir cette base objective parce qu’en fait ben le neurologue il va revoir son patient 6 mois plus tard et donc là il faut qu’il se remémore il va regarder ses notes et il doit se remémorer de comment était son patient

(50:09) si moi auparavant et voilà et en fait on avait vu avec eux là pour le coup c’est pas du tout des enjeux de diagnostic parce que ça ne présentait aucun intérêt de faire diagnostic médical en neurologie mais c’était plutôt de faire vraiment de la quantification fine donc pour cet exercice de qui évalue l’équilibre statique de la personne sachant qu’ il y avait des technologies pour le faire sauf que c’était ben du matériel médical donc extrêmement coûteux qu’on utilisait simplement pour faire des études

(50:39) ponctuelles et donc il n’était jamais utilisé en routine enfin en France je crois qu’il y en avait enfin sur la région parisienne je crois qu’il y en avait deux ou trois des appareils comme ça ça coûtait je sais pas 15000 euros pièce et nous en 2012-2013 on arrivait avec la Wii Balance Board qui est une plateforme de force qui coûtait je sais plus 80 euros à l’époque 60 euros un peu plus tard et donc en utilisant c’est pour ça que je parlais de capteurs grand public ben voilà c’était utilisé pour

(51:02) les jeux vidéo on s’est dit mais on peut en faire un outil d’évaluation de la posture alors ça c’était il y avait déjà une littérature sur cette possibilité là mais c’était très controversé donc il avait la moitié des gens qui disaient que il fallait le faire sur les dispositifs bien valider etc et d’autres qui disaient mais en fait on peut parfaitement le faire et donc quand on est rentré sur cette question déjà on a pu déployer dans la le service de neurologie à l’époque c’était à l’hôpital du Val de Grâce

(51:32) avant qu’il ne ferme et donc on a fait des mesures dans le la consultation donc déjà ça nous a permis de prendre en compte toutes les contraintes liées à la consultation donc quelque part ça nous a aidé aussi à penser à l’ergonomie de ce que pouvait être une chaîne de mesure pour être utilisée dans l’hôpital clairement si le clinicien doit passer cinq minutes pour mettre en place le dispositif sur une consultation qui dure 15-20 minutes c’est pas possible donc il fallait vraiment que ce soit très très bien

(51:59) pensé pour que ça puisse être utilisé il y avait cette question du retour aussi vers le clinicien parce que là on lui amène des dispositifs il faut essayer etc et donc qu’est-ce qu’il en retour donc lui souhaitait tout de suite avoir des éléments en fait donc il s’agit pas de déploie à dispositif sans qu’il immédiatement déjà voilà des éléments d’appréciation de la mesure donc il a fallu faire tout ça très très vite déjà pour avoir des premiers éléments et donc une fois qu’après le dispositif était accepté que

(52:30) on a un on a coché un peu toutes les cas sur l’aspergonomie d’un la consultation voilà ça nous a permis de mener beaucoup beaucoup de travaux sur cette puisqu’on avait on a constitué une base de notre premier essai clinique on a conçu une base de données qui était unique à l’époque puisqu’on avait 3000 enregistrements qu’on a eu en 6 mois alors que toutes les études elles en avaient autour de la centaine et là on a donc pu démontrer que cette examen seul permettait enfin démontrer qu’il y avait un lien avec un

(53:00) risque de chute à 6 mois pour des personnes qui n’avaient jamais chuté donc la chute aujourd’hui vous savez peut-être c’est un grand sujet dans le champ de la santé publique et donc voilà donc ça c’était déjà l’un des premiers des premiers points et puis après on a continué sur après l’équipe statique il y avait la locomotion donc la marche qui est aussi un élément d’appréciation pour pas mal de pathologies pour la réussite de certaines chirurgies voilà donc c’est aussi des choses qui qui sont beaucoup

(53:29) regarder dans certaines spécialités médicales et là il y a aussi des des innovations intéressantes dans la collecte des données notamment puisque dans l’enrichissement en fait des données parce que là quand on est sur des séquences de marche ce qu’il faut arriver à faire pour faire de la quantification fine c’est de bien identifier les pas donc là on avait des signaux accélérométriques et dans ces signaux il fallait repérer les pas donc il y a des techniques en traitement du signal pour segmenter des signaux et

(54:02) alors là une littérature très riche sur le sujet mais tout ce qu’on a essayé ne fonctionnait pas donc ça aussi ça nous aide ça nous a amené vers des questions de recherche fondamentale puisqu’on s’est dit bah attendez il y a il y a des voilà il y a des milliers de d’articles qui prétendent d’avoir résolu le problème nous on a des signaux réels parce qu’en fait il faut voir aussi pourquoi est-ce que ça ne marchait pas c’est que nous avons enregistré des sujets pathologiques qui avaient des maladies voilà très

(54:28) handicapantes sur la marche donc quand on fait quand on teste les méthodes sur des sujets sains ou la locomotion ça va être quelque chose de très régulier de très périodique évidemment toutes les belles méthodes mathématiques elles vont très bien fonctionner mais sur des corpus de données on a des sujets voilà il y en a un qui va faire l’exercice sur je sais pas à 50 secondes et l’autre il va mettre 5 minutes pour faire le la même distance et bien comment est-ce qu’on va calibrer une méthode de segmentation de manière automatique sans

(54:57) intervention humaine ça c’est là ça soulève beaucoup plus de défi et donc en fait ça nous a amené à innover même sur cette question qui pourtant voilà au début quand on a lancé ce sujet on nous a dit mais attendez c’est pas original qu’est-ce qu’il y a bien pouvoir faire votre doctorant sur un truc pareil tout a été déjà labouré etc et en fait on il a finalement créé une librairie Python qui s’appelle rupture et qui a aujourd’hui 7 millions de téléchargements parce qu’il y avait pas

(55:24) voilà de d’outils qui intègrent déjà un peu toute la connaissance ce qui va suffisamment modulaire et qui permettent de donner une base en tout cas pour attaquer ensuite des signaux réels donc ça c’était voilà un cheminement assez intéressant sur ce et il a fallu aussi que les clinicien là pour le coup à note des signaux donc nous aide à identifier la segmentation des pas et ça ça a été un travail de fourmi donc là on a bien contribution en fait un interne qui faisait aussi s’il y a thèse de médecine et sa thèse de

(55:58) sciences et qui a interagi aussi avec avec des gens qui étaient plutôt du côté traitement de données et en fait c’est un travail collaboratif beaucoup porté par des jeunes chercheurs et c’est ça c’est vrai que c’est un montage qu’on qu’on a pu voir à l’oeuvre à plusieurs reprises on a fait aussi une expérimentation similaire à l’hôpital Bégin au service d’anesthésie réanimation pour étudier la profondeur d’anesthésie parce que c’est un sujet qui voilà n’est pas si évident que ça et

(56:27) donc l’idée c’était d’utiliser les capteurs qui sont utilisés dans le en réa pour avoir un proxy finalement de la profondeur d’anesthésie et là on a fait collaborer un chercheur qui était plutôt sur le Vincent mathématique qui faisait une thèse donc dans ce domaine là et un clinicien qui faisait aussi une thèse de science et les deux ont collaboré donc voilà c’est des gens qui ont à peu près le même âge qui ont de part et d’autre des ambitions des choses à accomplir voilà mobiliser sur un projet très

(56:56) concret comme ça ça permet de créer le corpus de données de comprendre voilà les attentes des uns et des autres et c’est vrai que et tout ça encadré par des gens plus expérimentés des gens qui ont contribué peut-être à voilà aux autres expérimentations et qui donc vont partager aussi leur leur expertise leur manière de travailler aussi plus efficacement etc et une fois qu’on a ça voilà si la mayonnaise prend ben en fait après tout le monde s’y retrouve parce qu’on arrive à publier autour du même sujet dans toutes les

(57:27) communautés c’est à dire que pour le médecin ça va être éclairer peut-être une certaine une certaine pathologie avec voilà des dispositifs originaux etc et puis pour le mathématicien il y a aussi une innovation parce que il a des données qui soulèvent des nouvelles questions il y a aussi des contraintes qui sont originales et le fait d’avoir des nouvelles contraintes ça amène aussi à des innovations méthodologie et voilà et puis après tout le monde s’y retrouve alors c’est là où on retrouve aussi les

(57:54) écarts dans les les cycles temporels de production de la connaissance c’est-à-dire que les médecins peuvent publier tous les deux trois mois les mathématiciens sera peut-être une fois par an mais voilà finalement tout ça ça fonctionne assez bien à la base il y a quand même aussi une voilà il faut arriver à trouver à installer une complicité entre les personnes sinon ça peut pas fonctionner comment vous voyez ce secteur évolué dans les 4 5 prochaines années alors là aussi je donne mon point de vue qui est très

(58:25) voilà très très partiel mais mais je pense que il y aura une explosion du machine learning si on arrive à positionner en fait cette connaissance sur des interfaces en lien avec des applications et si on le fait de manière humble vertueuse respectueuse des contraintes aussi des gens qui sont sur le terrain là je pense qu’il y a beaucoup de choses à faire si on est aussi à l’écoute des attentes de la société sur ces technologies là il y a beaucoup de questionnements sur voilà l’environnement l’impact de

(59:07) l’environnement des technologies des technologies du numérique donc c’est pour ça que je ne crois pas beaucoup deep learning parce que c’est un très gros consommateur d’énergie et on peut faire du machine learning beaucoup plus frugal et alors il y a des peut-être dans certaines applications il y a que le Deep le qui sera pertinent mais je pense qu’il y a beaucoup beaucoup de choses qu’on peut faire aujourd’hui avec des choses qui sont voilà plus plus économiques à mon avis et plus facile à

(59:30) maintenir et en tout cas on n’a pas tiré tout le jus du machine learning non profond et on est un peu sauté une marche dans ce qui a été l’histoire des idées comment le secteur a évolué dans le monde scientifique et ce qui a été les modes un peu voilà médiatique voilà on parle des trois printemps de l’IA il y a eu deux hivers est-ce qu’il y aura un troisième hiver etc et en fait c’est vrai que la troisième vague elle est beaucoup portée par le Deep learning alors que le machine learning peu

(59:58) profond c’est beaucoup développé pendant le deuxième hiver en fait dans le sur le la scène scientifique avec des travaux remarquables des scientifiques dans sur ces sur ces algorithmes là et donc là je trouve qu’il y a voilà mon avis il y a encore beaucoup de choses à tirer pour des applications hors internet si on reste dans l’internet c’est vrai que là le Deep learning risque de quand même rester le la technologie dominante pour de bonnes raisons d’ailleurs est-ce qu’il y a un sujet dont on

(1:00:29) quelque chose que tu veux ajouter :  moi les sujets qui me tiennent beaucoup à cœur c’est surtout le les interfaces humains algorithmes et comment on orchestre la prise de décision quand on a ces deux composantes qui sont en prise avec des situations réelles on n’a pas beaucoup parlé de Deep learning sauf un peu à la fin mais ça je pense que c’est plutôt une bonne chose et voilà et après un autre sujet dont on n’a pas parlé qui est très voilà sur lequel il y a beaucoup d’actualité aujourd’hui c’est

(1:01:00) les sujets qui relèvent de la régulation de l’IA la gouvernance de l’IA il y a beaucoup de rapports qui sont produits sur ces questions et je trouve qu’il y a il y a des tensions intéressantes sur le voilà la volonté d’encadrer et en même temps ce qu’il faut permettre pour qu’on puisse innover donc voilà pour donner juste un exemple dans le domaine de la santé la la FDA qui est l’autorité qui quelque part autorise l’utilisation de médicaments dispositifs médicaux aux États-Unis

(1:01:30) ne valide alors je sais pas si ça a été actualisé mais la dernière fois que j’ai regardé en fait ce qui ce qu’il validait c’était ce qu’ils appelaient la LIA verrouillée c’est à dire que en fait il ne valide que des règles de décision pas des algorithmes apprenants sur des données vivantes et qui se calibrent automatiquement et donc ça qu’est-ce que ça veut dire ça veut dire qu’on a une base d’apprentissage parfaite ça exclut voilà la possibilité d’une amélioration continue à travers l’accumulation de

(1:01:59) nouvelles données et ça c’est une enfin pour moi c’est un frein très important mais je comprends en même temps que voilà un algorithme qui apprend et qui se calibre tout seul ben évidemment il est il est peut-être moins évident à maîtriser encore que il y a des voilà des dispositifs qui permettraient quand même de le faire mais mais qui sont peut-être pas un niveau de maturité qui permettrait à une administration comme celle-là de donner sa bénédiction donc là il y a il y a vraiment des points comme ça qui sont

(1:02:26) intéressant et pour conclure une recommandation un livre un article une vidéo que tu nous recommanderais de regarder pour approfondir ces questions oui alors notamment sur le sujet de l’interface humain algorithme il y a toute une série d’articles scientifiques que je trouve lumineux par un professeur à Chicago boost qui s’appelle sendyl Mulan et là je recommande voilà tous ces articles qui travaillent beaucoup alors lui sa spécialité c’est l’économie comportementale et justement il travaille beaucoup sur la comment est-ce

(1:02:59) que les algorithmes peuvent aussi corriger les décisions humaines donc il a des contributions comme celle-là notamment dans le champ de la justice algorithmique et puis dans d’autres domaines aussi donc comment les biais de discrimination peuvent être levés par des algorithmes ça donne aussi une vision un peu positive qui prend un peu à contre-pied ce qu’on lit parfois dans la presse sur les algorithmes qui au contraire prolongent les discriminations humaines et il y a aussi des travaux sur voilà comment cette app peut s’intégrer

(1:03:29) dans dans un écosystème complet et voilà c’est juste une brique mais comment elle va être son impact dans la mesure on prend en compte l’ensemble des questionnements sur l’allocation de ressources par exemple des ressources sont limitées donc on a alloué des ressources pour faire des choses et comment les algorithmes venant prendre une place en fait dans dans ces circuits de décision peuvent avoir des impacts extrêmement positifs donc moi j’apprécie beaucoup cette vision systémique et voilà c’est des des de très beaux

(1:04:03) articles s’appuient sur des enquêtes de terrain donc il y a vraiment de la matière c’est pas simplement des idées et voilà moi j’apprécie énormément et je recommande vivement ses lectures et bien sûr on pourra consulter l’ensemble des travaux de recherche du centre Borelli on mettra le site internet

RESTEZ INFORMÉ

ABONNEZ-VOUS A LA NEWSLETTER THE BRIDGE.

The Bridge by Artefact

TOUS NOS ÉPISODES THE BRIDGE