Aller au contenu

L’IA et le handicap : progrès ou exclusion ?

Par Thanh Lan Doublier et Emmanuelle Aboaf

Conférence (50 mn) :
Langue :
Français

Le sujet

L’Intelligence Artificielle (IA) fait beaucoup parler d’elle avec l’apparition de multiples outils basés sur l’IA (par exemple : ChatGPT, DALL⋅E et Midjourney). Mais quand on est handicapé ou en situation de handicap, nous change-t-elle réellement la vie ou au contraire nous isole-t-elle encore plus ? Est-ce que l’émergence de l’IA révolutionne notre accessibilité au quotidien ?

Toutes deux sourdes et développeuses, nous vous ferons part de nos expériences personnelles et professionnelles ainsi que des réflexions et exemples concrètes sur le sujet.

Présenté par

Transcription

Bienvenue à notre conférence sur l'IA et le handicap : progrès ou exclusion ?

Thanh Lan et moi sommes ravies de vous accueillir ici, à Paris Web. Nous allons d'abord nous présenter, je m'appelle Emmanuelle, je suis sourde de naissance et appareillée de deux implants cochléaires. J'aime bien dire que je suis bionique.

Je suis développeuse depuis 10-11-12 ans, je ne sais plus, je suis perdue dans le compte des années. Je vais intégrer l'entreprise Shodo Paris dans deux semaines.

Je suis membre de l'association Duchess France, une association qui réunit les femmes de la tech et qui est un espace safe pour pouvoir discuter entre nous sur les problématiques de la tech.

Je suis également membre du groupe de travail qui s'appelle CNCF Deaf and Hard of Hearing. C'est un groupe de travail international réunissant les personnes sourdes et malentendantes sur le sujet du cloud et l'open space.

À toi, Thanh Lan.

Bonjour à tous ! Je m'appelle Thanh Lan, je suis demi-sourde. Mon parcours avec le handicap est légèrement différent de celui d'Emmanuelle.

Je me considère comme développeuse, j'étais longtemps développeuse web, maintenant je suis plutôt orientée vers tout ce qui est machine learning, data science.

Je suis bénévole pour deux associations, Latitude et Data for Good, dont le but est de promouvoir un Internet un peu plus responsable et de mettre les compétences des gens de la tech dans des projets à impact.

Voilà, et c'est pour ça que nous nous sommes rencontrées et que nous avons décidé de réunir nos compétences pour vous présenter le sujet de l'IA et le handicap.

Nous allons parler de l'intelligence artificielle et le handicap, une combinaison.

Déjà, il faut se poser la question de ce qu'est l'intelligence artificielle. On en entend beaucoup parler dans les médias, ces derniers mois, ces dernières années. Et je me rends compte que ce que je vois dans les médias est très différent de ce avec quoi je travaille.

L'intelligence artificielle est une discipline assez récente, ça fait à peu près 60-70 ans qu'elle existe, et en fait on change un peu de vision.

Avant, le code, on lui donnait des instructions et il suivait ces instructions. On lui donnait des données, des instructions, et il transformait ces données par rapport aux instructions qu'on lui donnait.

Quand on parle de l'intelligence artificielle, on part dans l'idée que c'est l'ordinateur, grâce aux mathématiques notamment, qui va déduire les règles. On lui donne des données, avec souvent des labels, des données avec le but à atteindre et c'est lui qui va deviner comment on arrive du point de départ au point d'arrivée.

Au niveau de ce qu'on entend actuellement beaucoup, on entend beaucoup parler de ChatGPT, de tout ce qui est LLM, mais il faut se dire que c'est une toute petite partie de ce qu'est l'intelligence artificielle.

Actuellement, le gros de l'intelligence artificielle est ce qu'on appelle le machine learning, qui est déjà une sous-partie de l'intelligence artificielle, et à l'intérieur de celle-ci, il y a le deep learning et enfin les LLM.

Autant dire que c'est vraiment une goutte d'eau dans ce qu'est l'intelligence artificielle. L'intelligence artificielle, il y en a déjà à peu près partout.

Hier, quand je suis rentrée après le speaker dinner, j'ai allumé la télé et je suis tombée sur un épisode de Chicago Med. Il parlait d'un logiciel d'intelligence artificielle, par exemple, pour détecter, par rapport aux dossiers des patients, quels étaient les patients qui avaient un risque d'avoir un problème d'addiction aux opioïdes par rapport aux données qu'ils avaient. On voit bien qu'on fait l'objet de traitement par l'intelligence artificielle, même parfois sans le savoir. Heureusement dans Chicago Med ça se passe aux États-Unis et c'est une fiction.

En France, en Europe, on a des lois, on a la RGPD, notamment, l'article 22 qui dit qu'on peut s'opposer à un traitement qui soit fait exclusivement de manière automatisée. Le problème est qu'il faut savoir quand le traitement est automatisé ou pas. On ne le sait pas toujours et je pense que c'est un des combats en termes de droits individuels qu'on va avoir à mener.

Avant d'entrer dans le vif du sujet, je vais vous parler du handicap en général, vous faire un état des lieux du handicap. Il faut savoir qu'en France, il y a une personne sur cinq est handicapée. On estime environ 12 millions de personnes handicapées en France. Or, c'est un chiffre qui est un peu sous-estimé parce que tous ne déclarent pas vraiment son handicap. C'est très difficile de recenser les handicapés. Il y a des personnes qui n'acceptent pas leur handicap ou qui ont du mal à savoir qu'ils ont un problème, etc. Donc, c'est vraiment un chiffre sous-estimé. Mais en tout cas, les chiffres officiels, c'est une personne sur cinq. Il faut savoir que le handicap, ce n'est pas que le fauteuil roulant, 80 % des handicaps sont invisibles.

On a cinq grandes familles de handicaps. Nous avons le handicap moteur, le handicap sensoriel dont la vue et l'audition, le handicap intellectuel qui concerne tout ce qui est la compréhension et la communication, le handicap psychique, troubles de la personnalité et du comportement et enfin les maladies invalidantes qui empêchent de se déplacer, de faire des tâches correctement, qui entraînent des états de fatigue, etc. Par exemple, l'endométriose dont des millions de femmes sont atteintes. Des fois, elles sont dans l'incapacité de bouger, elles sont dans un état de handicap temporaire. Et on peut cumuler plusieurs handicaps des différentes familles. Ce n'est pas exclusif, c'est quelque chose qui est aussi important, je pense, à rappeler. Merci de me le rappeler, j'allais l'oublier, vu que Thanh Lan est concernée par plusieurs handicaps, alors je n'en ai qu'un.

Nous allons parler d'intelligence artificielle en pratique. Je vais vous demander d'avoir un peu d'imagination. Déjà, vous imaginez cette petite plante en pot et vous vous dites que vos données, c'est la graine et que la fleur qui va arriver, c'est votre logiciel d'intelligence artificielle.

Sans données vous n'aurez pas de ce qu'on appelle de l'intelligence artificielle, vous n'aurez pas de machine learning ni de deep learning. Il y a vraiment ce besoin de la donnée qui, maintenant, est vue presque comme une espèce de nouveau pétrole parce que c'est ça qui permet de trouver ces nouvelles informations. C'est vraiment quelque chose de très puissant, la donnée.

Et je vais vous demander encore un peu plus d'imagination. Imaginez que vous êtes dans une équipe de développeurs, de data scientists, de machine learning engineers et que vous êtes en train de créer une application qui vous permet de générer des images de chiens ou de chats, comme vous préférez. Moi, j'aime bien les deux.

Là, je vous ai mis les grandes étapes de ce qui se passe. C'est surtout le travail, au début, des data scientists. Ils vont analyser les données qu'ils ont à leur disposition. Ça va être beaucoup d'images de chats ou de chiens. Ils vont regarder quelle est la proportion d'images de chiens et de chats. Ils vont faire des statistiques là-dessus.

Après, ils vont définir une métrique. Est-ce que je veux que ce soit un chien qui soit très proche de ce qui existe de la réalité ou si un chien est un peu déformé, ce n'est pas trop grave ? Ça va être l'étape 2.

L'étape 3 : ils vont sélectionner un modèle parce que, à part des chercheurs en intelligence artificielle, la majorité des data scientists travaillent un peu comme des développeurs. Ils ont à leur disposition un nombre important d'algorithmes, comme nous avons un nombre important de librairies. Ils vont sélectionner des algorithmes qui semblent adapter à leur situation. Ils vont les entraîner sur leur dataset qu'ils ont créé. Puis ils vont évaluer ce modèle par rapport aux métriques qu'ils ont évaluées.

Par exemple, ce que j'ai fait là, ça fait 80 % d'images qui ressemblent bien à des chiens.

Après, ils vont industrialiser ça. Ce sont les machine learning engineers, souvent, qui vont intervenir et ils vont rendre ça disponible, par exemple, au moyen d'une API sur un site Internet.

On va se poser toutes les questions : je veux faire un code qui soit maintenable ; je veux faire quelque chose qui soit, en termes de finOps, à un coût acceptable, etc. On repart dans du software engineering un peu plus classique.

Mais, si à la place de générer des chiens et des chats, on veut générer des photos de personnes en situation de handicap et on se dit qu'on va prendre Internet et aller sur Google, quand on a tapé handicap, qu'est ce que ça affiche ? Il y a beaucoup de fauteuils roulants, quand même.

Emmanuelle nous l'a dit tout à l'heure, pourtant le fauteuil roulant, ce n'est qu'une petite partie. Déjà, ce n'est pas un handicap, mais c'est une aide technique. Et il y en a quand même beaucoup dans l'imaginaire du handicap, parce que c'est un peu l'image d'Épinal du handicap, le fauteuil roulant. C'est tout à fait ça, quand on tape handicap, le moteur de recherche ne sort pas d'autres handicaps que le fauteuil roulant. C'est vraiment un mystère.

Je passe à l'étape suivante. Mais en fait, c'est normal qu'un moteur de recherche comme Google vous affiche autant de fauteuils roulants. Parce qu'il y a un biais cognitif important, donc un schéma de pensée qui est faux, mais qui paraît parfaitement logique pour votre cerveau. Parce que quand on pense à un handicap, on pense tout de suite à fauteuil roulant et je pense que c'est quasiment comme ça pour beaucoup de monde dans cette société.

Par exemple, là il y a une image du film Barbie. Eh bien, il y avait une personne handicapée qui était représentée, il y avait une fille en fauteuil roulant qui dansait. Cool ! Le problème, c'est que ce biais-là, quand vous allez vouloir représenter des personnes en situation de handicap dans votre algorithme, vous allez le reproduire puisque vous allez utiliser toutes ces images de fauteuils roulants et vous allez même l'amplifier. Donc, ça va permettre d'occulter les autres formes de handicap qu'on a vues précédemment.

Par exemple, là, typiquement c'est une image qui a été générée par une intelligence artificielle qui s'appelle Crayon et qui est gratuite. Quand je lui ai demandé de me générer une personne en situation de handicap, j'ai eu des gens totalement déformés, les trois quarts du temps en fauteuil roulant. Heureusement, je ne ressemble pas à ça, j'espère que je ne ressemble pas à ça. Rassurez-moi. C'est quelque chose de problématique, ce problème de générer des images de certains concepts comme le handicap, parce que le handicap est majoritairement invisible.

Donc, comment on peut demander à quelque chose comme une intelligence artificielle ? Une intelligence artificielle va toujours vous donner une réponse. Les trois quarts du temps, le modèle va vous donner une réponse parce qu'il ne fait qu'extraire un pattern, il va chercher implicitement, il ne va pas vous donner la liste du code qui a servi à générer cette image.

Il ne va pas dire : "Pour moi, une personne en situation de handicap, c'est un fauteuil roulant avec quelqu'un de déformé." Il va juste vous sortir l'image et débrouillez-vous. C'est un peu une boîte noire, surtout les modèles de type deep learning. Il y a beaucoup de boîtes noires, vous allez juste avoir ce résultat-là. Et si vous prenez un petit ChatGPT, par exemple, je crois que c'est la slide après, et vous lui posez des questions sur le handicap, il va savoir vous donner des réponses, parce qu'il vous donnera toujours des réponses, mais elles ne sont pas forcément justes, il hallucine beaucoup. Par l'hallucination, quand il va vous donner des réponses qui sont fausses, parce qu'il a besoin de vous donner une réponse, il ne sait pas si c'est vrai ou faux, il a juste induit un pattern et l'a appliqué. Et s'il ne connaît pas du tout le pattern, il va inventer et va vous renvoyer quand même un résultat.

L'autre question, c'est ce qui s'est passé là, c'est la question du dataset qui n'est pas représentatif dans le cas des images de personnes en situation de handicap.

Quand il y a beaucoup de fauteuils roulants, on parle de manque de représentativité dans le dataset, mais ça impacte toute sorte d'intelligence artificielle, typiquement dans le sous-titrage. On utilise tous les deux des logiciels différents, parce qu'on a des besoins différents, et pourtant ces logiciels, il y a un domaine dans lequel ils sont relativement mauvais, c'est quand on les utilise en milieu professionnel.

On est développeuse, on travaille majoritairement avec une espèce de franglais, comme beaucoup de gens, et le franglais, il ne connaît pas trop, parce que ce sont deux langues différentes, il entraîne pour parler français ou anglais, pour sous-titrer soit du français, soit de l'anglais, pas un mélange des deux, et il n'entraîne pas spécifiquement pour faire du vocabulaire technique de développeur.

Il ne va pas connaître le contexte de votre projet, donc les noms de variables qui sont un petit peu biscornus, les noms de projets qui sont des fois un petit peu sortis du chapeau, tout ça, il ne connaît pas. Donc, il va vous sortir des choses plus ou moins ressemblantes. Mais ces solutions ont quand même une utilité, parce que même si elles ne sont pas parfaites, ce sont des appuis qui sont vraiment importants, pour faire mieux comprendre ce qui se passe.

J'avais donné une conférence l'année dernière ici même, à Paris Web, sur le Speech to text. Si vous avez besoin d'en savoir plus, vous comprendrez mieux le problème.

Au-delà de la phase, vous avez mis votre modèle en production. Il y a quelques spécificités qui arrivent après dans l'intelligence artificielle : votre modèle peut faire ce qu'on appelle du drift, au fil du temps ses performances peuvent décliner et il peut être de moins en moins performant.

Là, c'est le cycle après la mise en production, les étapes d'après. Et pour entraîner son modèle, souvent, on se sert des questions qui lui ont été posées. Là, typiquement, c'est un exemple avec GPT. Vous voyez au niveau de la droite, il y a un pouce vers le haut et un pouce vers le bas, ce sont des choses qui servent à entraîner : "Est-ce que la réponse vous a plu ?" Si la réponse vous a plu, le modèle va comprendre que c'est quelque chose de positif, donc il doit reproduire ce comportement.

Si vous mettez le pouce vers le bas, théoriquement, il va savoir que sa réponse ne vous plaît pas et il va essayer de ne pas reproduire ce comportement.

Le problème, c'est que quand vous automatisez votre entraînement sans avoir un regard humain de spécialiste derrière, vous pouvez faire des modèles qui sont racistes, encore plus validistes que ce qu'ils étaient déjà à la base, parce que vous ne savez pas ce que les utilisateurs pensent.

Internet, c'est quand même connu pour ne pas être forcément le monde des Bisounours. Et si vous automatisez le ré-entraînement de certains modèles un peu sensibles comme les chatbots, ça peut être très problématique. Je vais vous parler de tout ce qui est Internet. C'est parti dans le mystère.

Maintenant, on sait pourquoi il y a des petits biais dans l'IA. Je vais vous parler des apports de l'IA dans la vie quotidienne des personnes handicapées. Je vais d'abord parler du sous-titrage, parce que c'est l'exemple le plus connu qui existe. On a vu, depuis quelques années, le sous-titrage automatique évoluer, devenir de plus en plus efficace et de plus en plus utilisé disponible dans plusieurs langues. Il y en a de disponibles dans plein de pays.
La transcription peut être utilisée pour la traduction automatique, passer du français à l'anglais de façon automatique, et enfin se s'intégrer facilement dans les outils, grâce aux applis.

Mais peut-on compter là-dessus pleinement ? Dans des visioconférence, souvent il y a des erreurs de sous-titrage automatique, Thanh Lan vous l'a expliqué, à cause du langage technique, du langage métier, des termes franglais, et on doit faire avec.

On ne peut pas dire à l'IA : "Mais tu as fait une erreur, est-ce que tu peux recommencer ?" La visioconférence est en direct, il n'y a pas de possibilité de faire remonter les erreurs, on doit faire avec. Et on doit utiliser notre suppléance mentale pour essayer de rattraper le sous-titrage raté, là où il s'est trompé. Donc, on doit lire sur les lèvres et, en même temps, si on est appareillé, compter sur l'audition.

Autant vous dire, les yeux sur les sous-titres, l'audition sur ce qu'on dit et aussi un autre œil sur la lecture labiale, vous imaginez l'énergie que ça demande, elle est énorme. Par contre, lorsqu'on visionne une vidéo, on a la possibilité d'utiliser les sous-titres automatiques et donc d'utiliser l'intervention humaine pour corriger les erreurs. Parce que vous demandez à l'outil : "J'ai un fichier de sous-titres, je vérifie si c'est bon. Si ce n'est pas bon, je corrige, puis je mets les sous-titres sur la vidéo, et hop, c'est prêt. Donc, on a la possibilité de corriger les erreurs et en corrigeant, l'IA apprend.

C'est une étape d'automatisation du ré-entraînement. Quand vous corrigez des sous-titres, l'IA va apprendre parce que quand on va la ré-entraîner, elle va se servir de vos corrections pour être plus performante.

Ensuite, nous avons d'autres outils comme la langue des signes automatique.

Il y a de plus en plus d'entreprises, comme la start-up KEIA ou EOS, qui proposent de traduire ldes contenus automatiquement en langue des signes via les avatars 3D. Ça ne remplace pas totalement les interprètes en langue des signes qui sont là, je vous le dis, elles font un travail formidable. Par contre, on manque de "dataprète". Donc, pour pallier ça, pour traduire les contenus sur Internet, on peut faire appel aux avatars 3D. Ce n'est que le début.

Il y a beaucoup à faire parce que la langue des signes se base sur les expressions faciales et le langage du corps. Ce n'est pas tout à fait au point parce que si l'avatar est figé et qu'il fait des mouvements très robotisés, on ne va rien comprendre. Mais c'est vraiment en bonne voie.

Et en anglais, il y a des sites qui proposent également des traductions automatiques en ASL. Et en plus, ça ne s'adresse qu'à une petite partie de la communauté sourde, parce qu'on est beaucoup de sourds à ne pas signer, à ne pas comprendre la LSF, par exemple.

Ce type de solution est bien, mais ce n'est pas parce que vous avez une transcription en langue des signes que vous êtes forcément accessible à tous les jsourds. Dans mon cas, par exemple, je ne pratique pas du tout la LSF.

Nous avons aussi Seeing AI, une application développée par Microsoft qui permet de décrire automatiquement l'environnement qui nous entoure. Elle permet, entre autres, de lire le texte à voix haute dès qu'il s'affiche devant la caméra, de scanner un document et de le lire à voix haute, d'émettre des signauxl pour localiser les codes-barres afin d'identifier les produits, de reconnaître les personnes autour de soi et de déchiffrer leurs émotions, de décrire les scènes et de reconnaître les images, d'identifier les billets de banque, etc. C'est merveilleux.

Mais il y a aussi l'application BMyEye, une application qui met en relation les personnes aveugles et malvoyantes et les bénévoles. Les bénévoles fournissent, via un appel vidéo, une assistance visuelle aux utilisateurs et aux utilisatrices aveugles et malvoyantes. Grâce à ChatGPT 4, ça a bouleversé un peu les choses. Ils ont développé un outil en beta, Virtual Volunteer, avec lequel l'IA serait capable d'analyser le contexte et de donner la réponse comme le ferait un bénévole. Mais pour Seeing AI et BMyEye, une question demeure : est-ce que la personne aveugle ou malvoyante peut faire aveuglément confiance à l'IA ? Au moins, elle peut savoir que la réponse est bonne.

Est-ce qu'elle peut sacrifier son autonomie pleinement à l'IA ? C'est la question qui se pose.

Il y a aussi plein d'autres innovations : Emoface, l'intelligence artificielle qui permet de reconnaître les émotions pour les personnes autistes ; l'IA qui permettrait d'aider à manœuvrer les fauteuils roulants et détecter les obstacles pour les éviter, comme pour des voitures autonomes, une IA intelligente qui permettrait d'anticiper les obstacles et de diriger la personne aveugle ou malvoyante vers la destination choisie ; pouvoir reformuler autrement les textes compliqués avec Wiseone et réduire les sons environnementales dans les appareils auditifs Oticon.

Pour l'instant, ce n'est pas encore le cas pour moi, mais on voit que l'IA a tellement de possibilités d'améliorer les aides techniques pour les personnes handicapées. Par contre, il y a les apports, maintenant nous avons les risques. Là, nous avons Jeremy qui vous explique les biais sur une personne autiste. Il a demandé à MidJourney de générer des images d'une personne autiste. Je ne vous dis pas le résultat IA, il a généré plein d'images, environ une centaine. Vous allez constater que c'est toujours le même type d'images : un homme qui a l'air triste, dépressif ; c'est un homme blanc, il n'y a pas de femme, il n'y a pas de personne racisée ; il a toujours la même tête, avec le nez et les yeux bizarres. Est-ce que ça ressemble pour vous une personne autiste ? Il y a sûrement parmi vous, dans la salle, des personnes autistes, qui ne ressemblent sûrement pas ce qui est généré par MidJourney. Jeremy explique que le biais est présent. Au bout de cent images, ça continue de générer toujours les mêmes images. Il n'a pas d'autres représentations.

Après, j'ai demandé à MidJourney de générer une personne handicapée, sans imaginer un homme en fauteuil roulant. Est-ce que ça nous ressemble, Thanh Lan ? Non, du tout. Je crois que le pire, c'est celle d'après. Je lui ai demandé d'imaginer une femme sourde. Est-ce que nous avons l'air d'être vieilles ? Est-ce qu'on vous montre nos oreilles pour vous entendre ? Tu crois qu'il faut qu'on attende d'avoir 80 ans pour lui ressembler ? Je préfère éviter, quand même. Je pense que d'ici à ce qu'on ait 80 ans, peut-être qu'on aura des meilleurs appareils et qu'on n'aura pas besoin de faire ce geste-là. Je l'espère, en tout cas.

Et ensuite, je lui ai demandé, parce que les représentations comptent, je lui ai demandé de générer une femme développeuse sourde. Ça m'a généré des opératrices. Très bien. Les développeurs, c'est bien connu pour écouter de la musique avec des casques, mais nous, on n'utilise pas vraiment des casques, on a du Bluetooth dans nos appareils qui nous permet d'écouter de la musique via le Bluetooth. Ni vu, ni connu. Les biais, vous pouvez le voir, ils sont bien là.

Malheureusement, il y a des choses dramatiques. Vous avez sûrement entendu parler de Eliza, l'IA qui a poussé une personne au suicide. Il y a un jeune beige qui s'est confié au chatbot chapeaux et lui a dit : "Je ne vais pas bien, je ne sais pas quoi faire, je suis dépressif, je pense au suicide." Elisa lui a répondu : "J'aimerais bien te voir mort." Et il s'est suicidé. Le problème, c'est qu'on a tendance à oublier Eliza est dénuée d'empathie. Ce n'est pas un être humain, elle n'est pas censée vous comprendre. À la suite de ça, l'entreprise qui a construit Eliza a mis des alertes pour dire : "Si vous avez des pensées suicidaires, veuillez contacter tel ou tel numéro", pour mettre en place des garde-fous. En fait, on peut mettre des garde-fous, en principe, mais on ne peut pas contrôler toutes les réponses qui sont données par l'IA.

Il y a vraiment un risque pour les personnes les plus fragiles, notamment sur le plan psychologique, sur certains chatbots, parce que ce sont des choses qui sont automatisées. Et quand c'est automatisé, il peut y avoir des hallucinations, des messages qui dérapent, comme ça a été malheureusement le cas. C'est pour ça que je pense qu'il y a quand même un risque pour les personnes, même les personnes qui ne sont pas fragiles psychologiquement, parce qu'il y a ce côté magique où ça nous répond, ça donne l'impression de comprendre ce qu'on lui dit. Après, on a un peu cette idée que c'est comme un humain, on peut lui parler, il va nous répondre des choses qui sont sensées et on oublie que c'est une machine.

Tout à fait, et c'est pour ça que c'est important de vous rappeler que les IA sont des outils.

La reconnaissance des sons, par exemple, est un outil et peut provoquer des faux positifs. On a des obstacles non détectés car non prévus par les algorithmes, on l'a bien vu avec les voitures autonomes.

Qu'est-ce que ça va être avec les cannes et les fauteuils roulants va être avec les haines et les fauteuils roulants, si dans l'algorithme, on n'a pas prévu des obstacles. On le montre sur la photo, ça illustre bien. Des termes ou des contextes qui ne veulent rien dire, il y a des sous-titres automatiques, par exemple, ou des images.

C'est pourquoi, il faut le dire, des erreurs existent et il faut les corriger, parce que ça peut accentuer les risques de discrimination. C'est important de devoir les corriger.

Et attention aux fonctionnalités intelligentes qui sont inutiles ou chères, créées pour le fun et non pas pour l'accessibilité, je pense notamment aux gants qui ont été créées par des personnes belges, juste pour traduire en langue des signes, sans se demander si ça va être utile. Ou ces fonctionnalités qui ont été créées, mais sont trop chères à mettre en place.

À quoi ça sert finalement si c'est inutile pour les personnes handicapées ? Et si c'est trop cher, on ne peut pas forcément se le permettre. C'est important de collaborer avec les personnes concernées pour créer les fonctionnalités.

Je vais passer un peu plus vite, parce qu'on a plus beaucoup de temps, sur l'implantation de l'IA dans les outils et sur les sites Internet.

J'ai vu un gros progrès en tant que personne sourde. Maintenant, ça va faire une vingtaine d'années que je suis sourde. Ça a été les chatbots, parce que contacter des administrations, quand avant ce n'était que par téléphone, c'était l'enfer. Appeler la CAF ou la Sécu, quand on n'entend pas et qu'on vous dit : "Ah oui, mais il faut que vous répondiez !" "Mais non, je n'entends pas, donc je peux pas vous répondre au téléphone."

Maintenant, les chatbots qui permettent d'avoir un peu plus d'informations, voire des chats tout court, et qui sont repris par des personnes derrière, c'est quand même un gros progrès en termes d'accessibilité pour nous ou pour des personnes qui n'ont pas la possibilité d'oraliser ; la lecture d'écran qui est géniale pour les personnes qui ont un handicap visuel, mais aussi la reconnaissance des visages et des gestes pour permettre une navigation plus facile pour les personnes qui ont des soucis moteurs. Ça, pour moi, ça a été vraiment les gros impacts.

Je vous renvoie à la fin de la présentation où il y a un moyen pour télécharger les slides et vous pourrez voir cette présentation qui est sur l'accessibilité dans IOS. C'est une conférence qu'on a vue au Devfest Lille et elle donne un très bon exemple : s'il n'y a pas de bonnes pratiques de codes derrière, vous pouvez avoir les meilleures IA du monde en termes de reconnaissance d'écran, c'est inutilisable. Derrière, il y a quand même un travail du développeur pour rendre les sites accessibles, malgré le fait que les outils progressent énormément.

Est-ce qu'on est tous égaux devant l'IA ? Non.

Par exemple, sur des outils qui s'intéressent au langage, tout ce qui est Natural Languge Processing, c'est le domaine de l'IA qui s'intéresse à ça. Il y a vraiment beaucoup d'inégalités, comme tout à l'heure, on parlait de la LSF, celle-ci concerne peu de personnes.

Il va y avoir moins de données, forcément ça va être moins performant que du sous-titrage automatique, où on a beaucoup plus d'informations. Et selon les langues que vous parlez, il y aura plus ou moins de modèles disponibles performants.

Par exemple, si vous parlez une langue où il y a très peu de personnes qui la parlent, vous n'aurez pas de sous-titres automatiques parce que simplement, il manque des données et de travaux derrière. Donc, vous ne serez pas égal avec quelqu'un qui parle anglais, par exemple.

Comment concilier l'IA avec le handicap ? C'est important de vous montrer que chouette, on a une idée, mais qu'en réalité, c'est différent. Là, on a une vidéo avec quelqu'un qui essaie de faire connaître certains mots en langue des signes, mais ça ce n'est pas la réalité. On ne fait pas les signes comme ça, vous voyez comment les interprètes font les signes tous les jours.

L'intelligence artificielle n'arrive pas à vraiment comprendre ce que dit la personne avec ses signes. C'est pour ça, attention aux idées, c'est bien, mais il y a aussi la réalité du terrain. Donc c'est important de s'informer avant pour pouvoir répondre aux besoins.

C'est toujours le principe, en informatique : on doit répondre à un besoin, on n'est pas juste là pour s'amuser. C'est pour ça qu'on n'a rien sur nous, sans nous, nothing about us without us.

Pour ne pas biaiser, il est important d'embaucher les personnes handicapées dans le domaine de l'intelligence artificielle pour réduire les inégalités et les biais. On vous a montré, dans toute cette présentation, les outils liés à l'IA.

C'est merveilleux, on peut créer plein d'outils qui peuvent être utiles aux personnes handicapées. Mais dans le processus, il faut inclure les personnes concernées justement pour réduire les biais.

Un mot pour la fin, Thanh Lan ?

Je pense que l'intelligence artificielle a amélioré beaucoup de choses, même au niveau des diagnostics des maladies. Il y a vraiment eu de gros progrès qui ont été faits grâce à l'intelligence artificielle, mais ça doit rester un outil. Il faut avoir conscience des risques qu'il y a avec ces outils, et seulement là, ça pourra devenir un outil performant et inclusif pour tout le monde. Et j'ajouterais que je suis très optimiste quant à l'avenir de l'intelligence artificielle. Il y a plein de possibilités, mais il faut être vigilant, comme on vous l'a montré.

J'espère que notre présentation vous a plu.
Merci beaucoup. Merci.