Olivier Desbiey Senior Foresight Analyst

Une IA responsable pour assurer la confiance

Hier rêve de chercheur, l’intelligence artificielle (IA) fait aujourd’hui partie de notre quotidien, et fait figure de miroir de nos sociétés contemporaines. Celle-ci peut, parfois, reproduire nos propres erreurs et préjugés ; tout en transformant nos usages et nos conceptions. Pourtant, tout puissant qu’il soit, cet outil doit inspirer la confiance si nous le voulons pérenne et acceptable. C’est dans cette démarche qu’AXA s’attelle avec Impact IA à concevoir ce que serait une IA responsable et à partager des outils concrets pour la mettre en œuvre. Récit. Explorer de nouvelles façons de vivre
27 mars 2019

Machine learning, data centers, algorithmes… ces mots qui, il y a quelques dizaines d’années auraient pu sembler tout droit sortis d’un scénario de science-fiction, sont désormais monnaie courante dans notre vocabulaire quotidien. Témoignage s’il en est que l’IA et les algorithmes transforment dès aujourd’hui notre manière de travailler, de consommer, de nous divertir.

Alors que l’intelligence artificielle est omniprésente dans une multitude d’usages quotidiens, les notions de responsabilité et d’éthique sont clé pour construire une IA au service de tous. Comme le rappelait le spécialiste de droit constitutionnel Lawrence Lessig à l’occasion de la sortie du Research Guide sur l’IA et la confiance : « Quand on parle d’intelligence artificielle, il y a un futur dystopique et un futur utopique. […] Et il y a une décision fondamentale à prendre pour que ce futur puisse être utopique : il s’agit de savoir si une structure est capable de s’assurer que les bénéfices l’intelligence artificielle soient partagés par tous, et non pas monopolisés par une petite partie de la population ».

La problématique est ainsi résumée par Cécile Wendling, Directrice de la Prospective d’AXA : « Comment assurer que l’IA reste dans le respect des valeurs de nos démocraties occidentales c’est-à-dire le respect des personnes et des libertés individuelles ? Quelle est cette boussole éthique dont la détermination rapide est essentielle ? » 

L’IA, d’un rêve de chercheur à une réalité de marché

Pour autant, la notion d’intelligence artificielle n’est pas neuve. Comme le rappelle Antoine Petit, Président directeur général du CNRS,  « l’apprentissage profond (deep learning) pour ne citer que lui, est une idée vieille de 30 ans [...] Les avancées en matière de puissance de calcul des ordinateurs, et surtout la prolifération des données du fait de la généralisation d’internet ont donné à l’IA la performance qu’on lui connaît aujourd’hui. » En d’autres termes, avec le développement de la société numérique et des données qu’elle génère, et les progrès en matériel informatique, l’intelligence artificielle est passée d’un rêve de chercheur à une réalité de marché.

Et c’est dans le monde réel, et non dans les laboratoires, que les défis de l’IA sont les plus grands. « La recherche en matière d’intelligence artificielle est tirée par les cas d’usage, » rappelle le PDG du CNRS, qui prend l’exemple du véhicule autonome. « Si vous avez un algorithme de reconnaissance d’image qui est fiable à 99,9% cela peut suffire dans une expérience en laboratoire. Mais si ce même algorithme est utilisé dans le cas d’une voiture autonome, cela signifie que ce véhicule a une chance sur mille de ne pas reconnaître un panneau de signalisation… et c’est beaucoup trop. »  Il est évident qu’il n’est pas envisageable que de faire circuler un tel véhicule sans améliorer au préalable l’algorithme utilisé. Et Antoine Petit de conclure : « On est donc obligé de se dépasser quand on fait face aux usages réels de nos outils. C’est l’application de l’IA qui nous tire, nous les chercheurs, vers la perfection. » 

« C’est l’application de l’Intelligence Artificielle qui nous tire, nous, les chercheurs, vers la perfection », Antoine Petit, PDG du CNRS

Entre innovation et acceptabilité

Pour un assureur comme AXA, l’intelligence artificielle est avant tout en train de transformer la manière d’accompagner ses clients vers une vie meilleure. « L’impact de l’intelligence artificielle dans l’assurance est multiple », observe Cécile Wendling. Pour la Directrice de la Prospective d’AXA, l’IA permet tout d’abord une meilleure appréhension des risques et facilite la gestion de données techniques et complexes qui sont au cœur du métier d’assureur. Elle permet également une meilleure expérience utilisateur. « Dans le cas d’un dommage survenant hors des horaires d’ouverture des centres d’assistance, un utilisateur pourra être pris en charge par un assistant vocal intelligent qui pourra le guider dans les premiers gestes à accomplir », explique Cécile Wendling, qui anime par ailleurs le groupe de travail IA responsable du cercle de réflexion Impact AI.

Mais la transformation du secteur assurantiel est plus large. Elle englobe notamment la notion d’assurance de l’intelligence artificielle et des solutions qui l’utilisent. Le cas du véhicule autonome illustré par le partenariat entre AXA et Navya est parlant : à mesure que la technologie avance, apportant aux utilisateurs des solutions innovantes, il faut en assurer l’acceptabilité par la société – et donc répondre à un certain nombre de défis. Comment garantir la vie privée tout en bénéficiant de la collecte de données nécessaires au bon fonctionnement des algorithmes ? Comment assurer une IA au service du plus grand nombre ? Comment penser les rapports entre l’humain et la machine en termes de collaboration ?

Le défi de la confiance

Pour Raja Chatila, Directeur de l’ISIR (Institute of Inteligent Systems and Robotics) au sein de l’Université Pierre et Marie Curie de Paris, l’équation est simple : « Si nous voulons une IA responsable, nous devons avoir une recherche responsable », explique-t-il. Pour garantir cette éthique et cette confiance, une approche transversale liant sciences sociales et sciences dures est fondamentale. Pourtant, cette notion de responsabilité ne coule pas de source. Marcin Detyniecki, Directeur de la Recherche et Développement chez AXA, a longtemps travaillé sur la question de l’intelligence artificielle. « En tant que chercheur dans nos laboratoires, nous n’avions qu’une seule idée en tête : il fallait que ça marche », se souvient-il. « Dans la réalité, on ne nous demande pas d’être le plus précis ou le plus juste. Désormais, nous devons réfléchir en termes de valeur et de biais sociaux au sein des data sets. Les données sur lesquelles nous faisons apprendre notre algorithme reflètent elles des inégalités sociales ? Ces inégalités pourraient-elles se retrouver appliquées par l’algorithme ? Sur quelle variable sensible la machine prend-elle sa décision ? Ce sont parfois de nouvelles questions pour un chercheur en mathématiques, mais elles sont essentielles. »  

« Désormais, nous devons réfléchir en termes de valeur et de biais sociaux au sein des data sets. » Marcin Detyniecki, Directeur de la recherche et développement chez AXA

Dominique Cardon, Directeur du Medialab de Science-Po, explique ainsi cette attention nécessaire : l’intelligence artificielle fait passer la machine à un système perceptif, c’est-à-dire que ce qu’elle perçoit, ses inputs, ont un impact sur la machine elle-même et sa manière de produire de l’information. « De ce fait, l’IA est en rapport constant avec la société. Elle analyse des comportements qui sont les nôtres pour y adapter ses réponses. »

La question de la définition des valeurs dans la conception et le déploiement de l’intelligence artificielle est donc centrale, afin de donner à l’algorithme les valeurs sociales que nous voulons implémenter. Mais comment produire ces valeurs et comment s’assurer de leur mise en œuvre dans les algorithmes et les IA ?

Dominique Cardon, Directeur du Medialab de Science-Po
Raja Chatila, Directeur de l’ISIR (Institute of Inteligent Systems and Robotics)

Des outils à la portée de tous

En France la prise de parole très engagée du président Emmanuel Macron fin mars 2018 rappelait la prépondérance légitime de l’Etat et surtout de l’Europe dans la définition de choix collectifs et de valeurs communes en matière d’IA. En effet, face au géant du numérique, l’enjeu est de taille dans la définition d’une vision européenne de l’éthique de l’IA. Mais comme le rappelait alors le président français, la confiance doit aussi venir d’initiatives privées.

C’est suite à cet appel qu’est né le collectif Impact AI. Pour ses membres, quelles que soient les initiatives individuelles menées par des entreprises, la réponse à la question de la responsabilité de l’intelligence artificielle ne peut s’envisager que dans le cadre d’une action collective. Comme le rappelle Cécile Wendling : « Faire de l’IA responsable, trouver les outils pour identifier et corriger les biais d’un data set… Tout cela a un coût et nous voulons permettre à tous d’accéder à ce que nous, grands groupes, avons mis en place : c’est là le sens de la mise en commun qu’est Impact AI et de la boîte à outils que nous avons développée. »

« Faire de l’IA, responsable, trouver les outils, tout cela a un coût et nous voulons permettre à tous d’accéder à ce que nous, grands groupes avons mis en place. » Cécile Wendling, Directrice de la Prospective chez AXA

Dans cette boite à outils sont mis à disposition des outils mathématiques et technologiques comme des marqueurs permettant de mieux comprendre la prise de décision d’une IA, mais aussi des outils de gouvernance (panel éthique, charte, processus…) qui peuvent être mis en place dans toute forme d’organisation. Et enfin, des formations (cursus universitaires, Moocs en ligne…) et de la documentation (articles scientifiques et publications) pour prendre en main le sujet.

Antoine Petit, PDG du CNRS salue cette démarche : « On ne doit pas opposer l’éthique au business. Pour être accepté par tous et au service de tous, l’IA doit intégrer dès sa conception les valeurs de la collectivité. »

Concrétiser nos engagements

Conscient de l’aspect fondamental de la confiance au sein du métier d’assureur, AXA nourrit par ailleurs une réflexion régulière sur l’éthique de l’intelligence artificielle. Cette réflexion est notamment piloté par le Data Protection and Ethics Panel, un panel d'experts indépendants coordonné par Cécile Wendling, qui se réunit deux fois par an depuis 2015 avec les dirigeants d’AXA pour aider à positionner le Groupe sur les grands débats en lien avec les données et les algorithmes. Un exemple concret qui est ressorti de ce panel : l’engagement de ne pas revendre la donnée personnelle des clients AXA. Autre aspect des engagements du Groupe dans ce domaine, le financement de nombreux projets par le AXA Research Fund qui favorise la confiance en l’intelligence artificielle par la recherche. . Avec entre autres, des projets de recherches directement centrés sur la définition et les enjeux d’une IA responsable, comme celui du Dr. Sarvapali Ramchurn.  « Mon objectif est de mettre au point une partie de la technologie de base qui garantira la sécurité et la responsabilité de l'IA ».

« Dans cette démarche, nous avons mis en place un certain nombre de process en interne qui permettent d’engager concrètement une vision responsable de l’Intelligence Artificielle », explique Cécile Wendling. Des « briques » qui concrétisent les engagements pris par AXA : une brique technique sur la recherche en développement d’outils pertinents pour l’activité du groupe ; une brique de gouvernance, qui consiste à intégrer des processus de vérification dédiés à l’intelligence artificielle dans les étapes de prises de décisions ; et une brique RH, qui assure que tous ceux qui vont travailler de près ou de loin avec l’IA seront formés à des notions éthiques. »