[MUSIQUE] Dans la dernière séquence, nous avons discuté ensemble de quelques défis qu'il serait important d'adresser dans le domaine de diagnostic et du suivi de l'autisme avec l'aide des nouvelles technologies. Peut-être si on prend d'abord l'idée que le bilan diagnostique est relativement long en termes d'investissement et de personnes qualifiées, il y a des études intéressantes qui ont été publiées par le groupe de Dennis Wall à Stanford, qui montrent qu'on peut essayer de diminuer le temps de ces outils diagnostiques en sélectionnant les comportements qui sont le plus discriminants. Donc, ce qu'il a fait, c'est qu'il a simplement pris l'outil diagnostique de l'ADOS, qui a un certain nombre d'items, ou celui de l'ADI, qui a à peu près aussi 90 items, il a utilisé des outils d'intelligence artificielle pour identifier quels étaient les comportements les plus discriminants, avec l'idée que ceci pourrait servir à développer des tests diagnostiques qui pourraient être plus rapides et plus accessibles. Même si c'est des travaux qui sont relativement intéressants, pour l'instant, c'est des travaux qui ont peu changé la pratique clinique et qui n'ont pas donné naissance à des nouveaux tests standardisés. Une autre approche qui a été proposée par le même groupe pour limiter l'investissement de temps en termes de personnel qualifié dans un bilan diagnostique, c'est l'idée qu'on puisse proposer à des néophytes de regarder des vidéos de quelques minutes et de quantifier sur la base de ces vidéos la présence ou l'absence de symptômes d'autisme. Ces personnes, c'est bien sûr des personnes qui avaient été légèrement formées à ça, mais très peu, puisque finalement après une heure de formation, ils se sont rendus compte que ces personnes devenaient relativement fiables pour identifier ou non les symptômes d'autisme sur une vidéo relativement courte uploadée par des parents d'une interaction entre leur enfant et une autre personne. C'est une approche assez intéressante, parce que finalement, elle ouvre la porte à la possibilité d'utiliser des personnes qui sont relativement peu formées, c'est-à -dire que ça peut être des volontaires qui ont envie de contribuer au diagnostic de l'autisme, ou alors il existe aussi des possibilités de passer par des personnes qui travaillent, qui le font dans un cadre professionnel avec par exemple des plateformes telles que Amazon MTurk dans lequel les personnes sont payées pour faire des classifications de ce type. Même si c'est une approche qui est intéressante, c'est aussi une approche qui ouvre un certain nombre de questions, en particulier sur le plan de la confidentialité de ces données qui sont des données qui sont extrêmement sensibles puisqu'il s'agit de vidéos sur lesquelles on peut reconnaître l'enfant. Et puis, en l'occurrence, à partir du moment où on va demander à des volontaires qu'ils soient payés ou non, de regarder ces vidéos, on va un peu perdre le contrôle sur les personnes qui peuvent regarder ces vidéos. Le deuxième souci avec cette approche, c'est que finalement c'est une approche qui est relativement sensible à des aspects culturels et à des aspects de langage. Et ça, les mêmes auteurs l'ont montré quand ils ont montré des vidéos qui étaient soit codées par des personnes américaines qui codaient des vidéos d'enfants et de familles américaines, là ils arrivaient à identifier d'une manière extrêmement élevée la présence ou l'absence de symptômes d'autisme, avec un score de 92 %. Par contre, si on demande à ces mêmes volontaires américains de coder des vidéos qui sont issues d'enfants au Bangladesh, à ce moment-là c'est beaucoup plus difficile pour eux d'identifier ces symptômes d'une manière fiable puisqu'on descend à 75 % de reconnaissance. Cela reste un bon chiffre, mais cela montre que les aspects culturels et les aspects de langage sont quand même importants dans ce type de décision. Dans ce contexte, il y a plusieurs auteurs qui ont proposé d'utiliser un certain nombre de techniques qui sont des techniques automatisées d'analyse du comportement, afin de pouvoir soutenir le diagnostic de l'autisme. Et ça, c'est un champ qui est connu sous le nom de computer vision, donc l'analyse automatique des comportements. Alors, une des premières applications ça a été l'application de pouvoir reconnaître les émotions sur le visage. Il y a maintenant des algorithmes qui sont très bons, qui identifient des nuages de points sur le visage de la personne et qui arrivent à quantifier quelle est l'émotion qui est transmise par ce visage-là . C'est quelque chose qui a potentiellement la possibilité de pouvoir soutenir le diagnostic d'autisme, puisqu'on sait que les personnes qui sont sur le spectre ont tendance à moins diriger leurs émotions et à les présenter d'une manière qui est aussi moins subtile. Une deuxième application c'est une application aussi automatique, de pouvoir identifier la direction du regard. On sait que dans l'autisme, une des difficultés c'est d'avoir un contact visuel direct ou la possibilité de suivre l'orientation du regard, de faire des allers et retours entre les personnes ou entre les objets et les personnes, et maintenant, il y a des algorithmes d'identification automatique du regard, qui amènent la possibilité de pouvoir quantifier ça d'une manière totalement automatisée. Mais il y a aussi un certain nombre d'auteurs qui se sont posés la question de est-ce qu'on pouvait analyser les mouvements du corps entier pour pouvoir diagnostiquer l'autisme. En fait, tout ce champ de recherche a émergé du fait qu'on sait qu'on a besoin de très peu d'informations pour pouvoir reconnaître un certain nombre d'interactions sociales ou d'émotions chez la personne. Par exemple, si vous voyez maintenant cette personne qui est en train de marcher, qui est en fait représentée uniquement par des points, on arrive relativement aisément à identifier si la personne est triste, contente, énergétique, et toutes ces choses, on a besoin finalement de très peu de points pour pouvoir l'identifier nous avec notre œil humain. Donc, la question c'est de savoir si on allait pouvoir utiliser ce même type de technologie pour pouvoir diagnostiquer de manière automatisée l'autisme. Il y a maintenant de plus en plus d'algorithmes qui utilisent des techniques de computer vision pour pouvoir identifier de manière automatique la position du corps. [AUDIO_VIDE] Ce que vous venez de voir, c'est un extrait de l'examen diagnostique, donc de l'ADOS, dans lequel vous avez vu superposé à l'image de l'enfant le squelette, c'est-à -dire la reconstruction automatique de la position du corps de cet enfant. Et ensuite, nous avons enlevé la vidéo, donc vous avez uniquement vu le squelette, et vous avez probablement réalisé que finalement, on a besoin de très peu d'informations pour pouvoir continuer à quantifier les interactions sociales qu'il y a entre ces deux personnes. Donc, dans le domaine du diagnostic de l'autisme, cela reste une technique qui a besoin d'être validée, mais c'est probablement une technique qui a un potentiel important en particulier chez des jeunes enfants sur le spectre de l'autisme, chez qui le diagnostic se base principalement sur les interactions gestuelles. Il y a d'ailleurs récemment une publication qui a exploité ce type de technologies. Eux ont utilisé des senseurs de type Kinect, donc c'est des senseurs de profondeur qui permettent de savoir exactement où sont les personnes dans la pièce. Ils ont simplement pris cinq minutes de l'examen de l'ADOS, et sur la base de ces cinq minutes de l'ADOS, ils ont conceptualisé les interactions sociales d'une manière très simple, simplement quelle est la distance entre le clinicien et l'enfant, est-ce que l'enfant s'approche ou s'éloigne du clinicien, est-ce que l'enfant est orienté ou non en direction du clinicien. Et finalement, avec ces mesures relativement simples, ils ont identifié que sur les cinq minutes de la vidéo, ils avaient une corrélation qui était très étroite entre la cotation par des cliniciens, qui est une cotation très précise à l'ADOS qui suit une formation hautement spécialisée, et des mesures relativement simples, totalement automatisées, qui étaient sorties par leur algorithme automatisé. Donc, ce que nous montre ce type d'étude, c'est que finalement il y a vraiment un grand potentiel pour ces techniques automatisées d'analyse du comportement, qui sont vraiment basées uniquement sur des vidéos et des vidéos qui potentiellement pourraient être envoyées directement par les parents, donc pas forcément dans un contexte clinique, de pouvoir de manière relativement précise identifier un certain nombre de symptômes de l'enfant. Un dernier aspect qu'on n'a pas discuté puisqu'on a maintenant beaucoup discuté de l'information visuelle et des vidéos, c'est cette information vocale. Donc, on sait que l'enfant va avoir souvent des difficultés sur le développement du langage, un retard du langage, une manière un petit peu particulière d'utiliser son langage, et là aussi, les nouvelles technologies peuvent nous apporter des informations qui sont importantes puisqu'il y a eu par exemple des nouveaux devices qui ont été développés pour enregistrer la voix de l'enfant, la voix du bébé et puis quantifier comment est-ce qu'il développait différentes syllabes au cours du temps, et comment en particulier, il est rentré dans une espèce de ping-pong, c'est-à -dire un aller-retour de conversations entre l'enfant et l'adulte. Ça, ça amène à des mesures complètement automatisées, dévocalisations, qui encore une fois peuvent nous amener un support pour soutenir le diagnostic de l'autisme. Donc, si on résume, toutes ces nouvelles technologies peuvent vraiment nous amener des informations qui sont des informations importantes, totalement quantifiables, totalement fiables et répétables, par exemple avec l'identification des émotions, du regard, le corps entier, toute la gestuelle mais aussi toute les vocalisations. [MUSIQUE] [MUSIQUE] [MUSIQUE]