LʼIntelligence Augmentée est là pour soutenir lʼhomme mais ne le remplace pas

min de lecture

Lors de notre interview pour cette édition de Pages, Mme Mascha Kurpicz-Briki, professeure en informatique dans le domaine de l'Intelligence Artificielle et de l'apprentissage automatique, définit l'attrait et les limites de l'Intelligence Artificielle et nous explique les tendances de base qui constituent l'objet de ses recherches.

Parlez-nous de vos points forts scientifiques et de vos projets de recherche ?

Prof. Dr. Mascha Kurpicz-Briki: Dans le cadre de mes travaux de recherche, je poursuis deux thèmes principaux: dʼun côté il y a lʼaspect Fairness au niveau de lʼIntelligence Artificielle (IA) notamment dans le domaine du traitement de textes et tout particulièrement ce quʼon appelle les modèles linguistiques qui sont fréquemment utilisés pour ce type dʼapplications. Les systèmes sont susceptibles de commettre des erreurs. Souvent parce quʼils ont été programmés de manière incorrecte ou alors parce quʼils sont basés sur des volumes de données unilatéraux et désuets. À cause de cette fragilité, mon équipe et moi-même partons du principe que le rôle de lʼIA doit être repensé. Cʼest pourquoi nous préférons utiliser le terme «Augmented Intelligence» au lieu de IA. Lʼordinateur est là pour servir dʼoutil à lʼhomme, pour élargir lʼintelligence humaine sans toutefois la remplacer.

Pourriez-vous approfondir ?

Afin dʼautomatiser le traitement dʼune langue, les mots doivent pouvoir être convertis en chiffres et se laisser codifier en ce quʼon appelle des vecteurs de mots qui permettent dʼêtre lus par un ordinateur. Ainsi, il est possible de représenter la signification dʼun mot de façon abstraite. Cela implique lʼapplication des réseaux neuronaux. Il sʼagit de systèmes émulant le fonctionnement du cerveau humain et qui sont utilisés pour lʼapprentissage mécanique et lʼIA. Ainsi il est possible dʼinterpréter des sources de données telles que des images, des sons, des tableaux ou des textes, ce qui permet dʼen extraire des informations ou des modèles qui pourront être appliqués sur des projections de données inconnues. Les réseaux neuronaux peuvent être plus ou moins complexes mais présentent essentiellement les structures de graphiques orientés. La méthode du «Word Embedding» utilisée pour les mots a pour but de révéler le rapport entre deux mots à lʼaide dʼopérations mathématiques. Il sʼagit de voir sʼils ont une signification similaire ou pas. 

Que voulez-vous dire concrètement ?

Si les termes «chien» ou «chat» sont représentés dans un espace vectoriel à dimension multiple, ils devront être positionnés plus près entre eux que par exemple au mot «tempête». Avec ce procédé, il est possible de transformer de larges volumes de texte en vecteurs de dictionnaires et de les mettre directement en rapport entre eux.

Quʼest-ce que cela apporte ?

On peut aller un pas plus loin en y incluant le contexte dʼun mot pour que les textes puissent être traités de manière efficace. Il est ensuite possible de générer des réponses automatiques à toutes sortes de questions par exemple dans des applications Chatbox. Aussi, grâce à lʼaide de ce quʼon appelle une analyse de sentiments, il est possible de savoir automatiquement si un terme ou une chose est perçue comme étant positif ou négatif par une tierce personne.

«LʼIA a le potentiel de transformer notre travail quotidien de façon significative. Les tâches répétitives sont ainsi considérablement simplifiées.»

Prof. Dr. Mascha Kurpicz-Briki

Quels sont les problèmes fondamentaux dans la mise en action de lʼIA ?

Bien souvent on suppose à tort pouvoir remplacer lʼhomme en utilisant lʼIA. Or cela devrait être le cas uniquement dans le traitement ou lʼévaluation automatique de larges volumes de données. Dans la plupart des cas, ceci nʼest pourtant pas désirable puisque la compétence de lʼhomme par rapport à la machine se trouve dans sa capacité de jugement. Si lʼintelligence dʼun système doit pouvoir soutenir lʼhomme dans son travail quotidien, on préfère parler de lʼintelligence augmentée ou «Augmented Intelligence».

Mais est-ce que lʼIA est réellement intelligente ?

Le terme IA est employé au sens très large. À lʼorigine le but était de développer des programmes dʼordinateur permettant de décharger lʼhomme des tâches impliquant une intelligence et pas seulement celles de nature répétitive. Contrairement à un algorithme traditionnel qui traite point par point une séquence de règles déterminée, le fonctionnement de lʼIA est en effet assez différent. Il est basé sur un volume de données si large, quʼil est capable de prendre des décisions sur des données nouvelles qui lui sont encore inconnues.

LʼIA, cʼest quoi ? Quʼest-ce quʼelle sait faire et où sont ses limites ?

LʼIA est une branche de lʼinformatique. Elle sʼinspire des capacités cognitives de lʼhomme. Elle extrait les informations dʼun paramètre de données quʼelle va analyser et respectivement classifier. Cette intelligence peut être basée soit sur des séquences programmées, soit être générée par un apprentissage mécanique. Quand on parle de lʼIA, il sʼagit le plus souvent de cette dernière. Grâce à la disponibilité croissante de larges volumes de données et à une puissance de calcul de plus en plus performante, le secteur de lʼapprentissage mécanique a fait dʼimportants progrès ces dernières années. Un algorithme intelligent apprend à travers la répétition à résoudre une tâche de manière indépendante. Cela signifie que la méthode de résolution nʼest pas basée sur un modèle initial comme cʼest le cas pour les algorithmes traditionnels. La machine apprend de façon indépendante à reconnaître la structure des données.

Pourrions-nous revenir sur les réseaux neuronaux ?

Les réseaux neuronaux représentent une sous-division de lʼapprentissage mécanique. Ces algorithmes qui permettent un apprentissage automatique sont, comme déjà dit, inspirés initialement par la structure du cerveau humain. De la même manière que ce dernier, il existe des réseaux neuronaux composés de plusieurs séries de nœuds qui sont reliés entre eux par des connexions pondérées. Selon sa complexité, un tel réseau neuronal peut varier de taille. La condition de base pour lʼapplication dʼune IA est dʼavoir suffisamment de données à disposition. On lʼentraîne en lui fournissant toujours dʼautres exemples de données. Grâce à cette répétition, le réseau neuronal apprend à chaque fois à les ordonner de manière de plus en plus exacte, tout en sʼaméliorant continuellement. Le modèle généré à travers les itérations dʼapprentissage est ensuite également appliqué à des données que lʼIA nʼa pas encore rencontrées lors de lʼentraînement.

Quels sont les champs dʼapplication du processus dʼapprentissage mécanique ?

Avec lʼaide des algorithmes industriels pour le traitement dʼimages, des représentations optiques peuvent être reconnues et catégorisées en temps réel. La vision mécanique est appliquée dʼune part pour les diagnostics médicaux et dʼautre part pour la reconnaissance faciale dʼimages caméra. Une telle technologie peut de plus être utilisée pour lʼinterprétation de caractères écrits à la main pour être transcrits en caractères dʼimprimerie. Aussi dans le domaine de la conduite autonome, une telle reconnaissance dʼimages automatique est dʼune importance primordiale. Par ailleurs lʼapprentissage mécanique est utilisé pour lʼinterprétation du langage humain. Cʼest par exemple le cas pour les systèmes de langage assisté au niveau du langage verbal. Un texte écrit peut être analysé de manière sémantique, ce qui permet de développer des applications de traduction contextuelles ou des ʼchatbotsʼ capables de générer des réponses de manière autonome. De plus, il leur est possible de reconnaître des modèles dans des suites dʼévénements qui seraient impossibles à détecter par lʼhomme de par la grande quantité de points de données, de variables et de dépendances. Cʼest ainsi quʼune IA est capable, à partir de données, dʼapprendre quels sont les modèles de défaut de lʼélectronique automobile et de comparer ces anomalies avec le comportement du véhicule en fonctionnement. Des échantillons dʼimage servent également de base dʼinformation pour des optimisations dans lesquels des modèles de processus sont générés par des systèmes dʼapprentissage mécaniques permettant un système de commande optimisé.

«Sur le thème du Fairness nous examinons comment des stéréotypes sociétaux apparaissent dans des modèles mathématiques et ce quʼon peut entreprendre afin de lʼempêcher.»

Prof. Dr. Mascha Kurpicz-Briki

Est-ce que lʼIA est en mesure de transformer nos vies ?

LʼIA a le potentiel de transformer notre travail quotidien de façon significative. Les travaux répétitifs sont ainsi considérablement simplifiés. Dʼun autre côté, son utilisation peut avoir un impact négatif sur nos vies. De nombreux exemples ont prouvé que lʼIA pouvait être discriminante comme lors de la présélection automatique de candidatures à lʼemploi. Il sʼest avéré que dans de nombreux cas, lʼorigine du matériel de données était basée sur de vieux portefeuilles qui retenaient plutôt les candidatures dʼhommes au détriment de celles des femmes qui disparaissaient souvent sans tambours ni trompettes de la sélection retenue.

Cela nous amène à parler de votre domaine de recherches.

Dans mes travaux de recherche, je poursuis avant tout deux thèmes principaux: Dʼune part, ce quʼon appelle le «Fairness» – concrètement, il sʼagit du traitement de certaines données et modèles de langue que lʼon trouve souvent dans des applications logicielles qui doivent être équilibrées et non-discriminantes. Dʼautre part il sʼagit, dans le domaine de la psychologie/psychiatrie clinique, de trouver des nouveaux moyens de diagnostiquer un patient/une patiente souffrant dʼun «Burnout» grâce à des analyses de textes basées sur le langage.

Est-ce que le «fairness» est un problème au niveau de lʼIA ?

La raison se trouve dans les faits historiques. Prenons lʼexemple des nombreux tests pharmaceutiques pour lesquels on favorisait souvent les hommes par rapport aux femmes. Cela était dû à la menstruation qui désavantageait les femmes. Une fois le médicament sur le marché, il nʼavait souvent aucun effet sur la femme ou au pire des cas, il pouvait provoquer sa mort. Un autre exemple qui a fait des vagues est celui dʼun programme de reconnaissance faciale de Google qui a reconnu un homme de couleur non pas comme un être humain mais comme un gorille. Ce serait dû à un ensemble de données insuffisant qui aurait empêché le programme de lui attribuer une ethnie. Lorsque Apple a lancé sa propre carte de crédit, un algorithme qui devait décider des limites de retrait était mal programmé. Le co-fondateur dʼApple, Steve Wozniak a laissé savoir par Twitter quʼil avait obtenu une limite de crédit dix fois plus élevée que sa femme alors quʼils nʼavaient même pas de comptes séparés.

Est-ce que ce type dʼhypothèses erronées dans le cadre de lʼIA fait lʼobjet de vos recherches ?

Sur le thème du «fairness» nous examinons comment des stéréotypes sociaux arrivent à se glisser dans ces modèles mathématiques et comment les éviter. Ce faisant, il sʼest avéré que des mots comme «femme», «fille» ou «mère» se rapprochent dans des modèles linguistiques aux «mots de famille» plutôt quʼaux «mots de carrière», ce qui peut avoir des conséquences directes sur la recherche dʼemploi. Au contraire, les mots masculins ont plutôt un rapport avec les termes liés à la carrière professionnelle. Lʼobjet dʼun de mes domaines de recherche est de démontrer comment on peut mesurer les stéréotypes sociaux dans des systèmes de texte. Le terme de biais y joue une grande importance. Un biais ou une déformation surgit lorsquʼune récolte de données est unilatérale ou désuète, ce qui peut conduire à des résultats dʼenquête erronés. Des études ont démontré quʼil existait des modèles de langue entraînés sur dʼimportantes collections de textes avec des vecteurs de mots dont les mots au sens similaire étaient placés à proximité et qui présentaient des stéréotypes de société. Et ce, non seulement en anglais, mais aussi dans dʼautres langues européennes comme lʼallemand et le français. Ces modèles de langue sont souvent utilisés pour le traitement automatique de textes ou servent de base pour le développement de logiciels dʼIA. Or lorsque lʼIA qui décide sur les hommes contient des stéréotypes de société, voire les accentue, alors une importante et systématique discrimination risque de survenir lors de son application.

Comment faites-vous pour résoudre ce problème ?

Au final, on peut comparer le «Deep Learning» et lʼIA à lʼéducation dʼun enfant: il faut lui enseigner ce quʼil ne sait pas. Pour ce qui est de lʼIA, cela nʼest pas toujours possible. Les données, avec lesquelles lʼIA est entraînée, comportent en elles-mêmes des préjudices. Cʼest pourquoi trouver une solution présente un vrai défi. Dʼun côté parce que la définition de «fairness» nʼest pas évidente et dʼun autre côté à cause de la mise en pratique technique qui se trouve encore au stade de recherche. Cʼest pour ces raisons quʼil est si important dʼêtre conscient de cette problématique et de poser les bonnes questions, aussi bien pour ce qui est du choix des données dʼentraînement que pour la mise en action des logiciels. La coopération entre lʼhomme et la machine doit être redéfinie. LʼIA doit servir dʼoutil de décision sans pour autant remplacer lʼhomme. Dans le domaine de la production dʼinformations écrites lʼIA représente des atouts considérables. Sans la réflexion de lʼhomme, elle cache aussi le risque de reproduire des stéréotypes et dʼapparaître discriminante en ce qui concerne le choix terminologique notamment en rapport avec le sexe et lʼethnicité.

«Si une IA contient des stéréotypes sociétaux ou voire les renforce, est-ce possible quʼelle conduise à une discrimination importante et systématique dans son utilisation?»

Prof. Dr. Mascha Kurpicz-Briki

Pour finir, quel est lʼimpact de lʼIA et de lʼapprentissage mécanique sur les logiciels ERP au meilleur des cas ?

Les nouvelles technologies peuvent être appliquées pour, par exemple, rassembler des informations de manière efficace afin dʼen extraire le plus important. Ceci permet dʼinvestir plus dʼénergie dans des projets plus intéressants et de passer moins de temps à effectuer des tâches répétitives. Elles permettent de reconnaître des modèles qui seraient autrement difficile à percevoir dʼemblée du fait de la répartition des données. Pour ce qui est des domaines dʼapplication, je peux bien imaginer le transfert dʼargent automatique et la comptabilité en temps réel mais aussi lʼélaboration de pronostics sʼy rapportant et élaborés à partir de données pré-existantes. Elles sont également capables de soutenir les utilisateurs et utilisatrices de chatbots, dʼautomatiser la mise en mémoire de factures et de reconnaître et classifier des documents.

Y a-t-il des exemples de discrimination dans ce domaine dʼapplication ?

Ce risque existe dans le domaine des ressources humaines notamment lorsque les candidatures sont automatiquement présélectionnées. Parce que de nombreuses données dʼentraînement contenaient surtout des exemples dʼhommes, on a pu facilement démontrer que dans une entreprise de haute technologie, les femmes étaient triées par lʼIA et que par conséquent, elles nʼavaient pratiquement aucune chance dʼêtre sélectionnées pour les postes proposés.

Est-ce quʼil sʼagit ici des enjeux de lʼintelligence mécanique? Quelles sont ses limites ?

Même si grâce à ce type dʼexemples on prend de plus en plus conscience de la problématique, notre société est arrivée à un point où nous devons définir ce que nous considérons comme étant acceptable dans un monde digitalisé. A cela sʼajoute la question de savoir quelles sont les décisions qui peuvent être prises par lʼIA. La préparation des données sʼavère également critique. Lʼeffort pour la mettre en place est bien souvent sous-estimé. Parmi les enjeux de la société, il faut compter lʼacceptation de nouveaux outils et technologies.

Que faut-il faire pour que la transformation digitale devienne une des plus grandes chances ?

Il faut prendre les risques au sérieux, comme le danger de discrimination, tout en approuvant et en soutenant lʼinnovation technique. Les décisions sur la coopération entre lʼhomme et la machine et la façon dʼexploiter les synergies réciproques doivent être prises «Si une IA contient des stéréotypes sociétaux ou voire les renforce, est-ce possible quʼelle conduise à une discrimination importante et systématique dans son utilisation?» Prof. Dr. Mascha Kurpicz-Briki en intégrant toutes les personnes concernées. Il sʼagit avant tout de renforcer la confiance en de telles technologies. Car il est contre-productif dʼavoir des décisions dʼIA qui sortent encore souvent de la «Blackbox» qui – au lieu de montrer le parcours effectué pour conduire au résultat – se contente simplement de communiquer le résultat.

Prof. Dr. Mascha Kurpicz-Briki

Mascha Kurpicz-Briki est Maître de Conférence en ingénierie des données à l'Institute for Data Applications and Security (IDAS) de la Haute Ecole Spécialisée Bernoise. Elle est directrice adjointe du Applied Machine Intelligence Research Group et responsable spécialisée dans le domaine de l'intelligence augmentée au sein du magazine scientifique SocietyByte. Après ses études des sciences informatiques à Berne et à Neuchâtel, elle a fait un détour dans le secteur privé pour finalement revenir à la Haute Ecole Spécialisée Bernoise où elle s'est consacrée aux sciences. Ses points forts y sont en premier lieu les thèmes de «Fairness» ainsi que la digitalisation d'enjeux sociaux et sociétaux dans un environnement informatique. Les aspects principaux de son travail sont la linguistique informatique, notamment dans le domaine du «Natural Language Processing», et l'apprentissage mécanique ou «Machine Learning». Dans le cadre de ses projets, elle étudie comment optimiser le langage des offres d'emploi en temps réel ou comment reconnaître un imminent «Burnout» à temps grâce à des technologies innovantes tout en évitant d'y appliquer des modèles discriminants.