Emmental et IA
Les innovations en matière d’intelligence artificielle (IA), comme le chatbot ChatGPT, sont certes célébrées avec enthousiasme, mais aussi sources de peur. Des discussions éthiques sur l’IA ne devraient jamais se concentrer sur la technologie seule, selon la bioéthicienne Samia Hurst. Par dessus tout, il est important que les cadres sociaux, politiques et économiques dans lesquels l’IA est utilisée soient corrects.
par Roger Nickl.
© Celia Lazzarotto
Enthousiasme sur des possibilités inimaginables – et crainte de celles-ci en même temps. Les réactions au chatbot ChatGPT, qui a été lancé l’automne dernier, ont été ambivalentes. Cela en dit beaucoup sur nous. « Quand des technologies nouvelles et disruptives arrivent sur le marché, il y a souvent un enthousiasme initial, suivi par des inquiétudes et des peurs, » dit Samia Hurst. « L’enthousiasme nous dit quelque chose sur nos rêves – mais comme nous le savons, les rêves peuvent aussi être très inquiétants. » Par exemple, les applications de l’IA promettent de diminuer notre charge de travail, mais elles menacent le travail et donc l’existence de personnes. Et elles donnent aussi aux entreprises qui les développent de plus en plus de pouvoir sur nos vies et nos données. Nous devons prendre ces peurs et inquiétudes sérieusement, dit Hurst, et nous devons trouver des solutions pour les faire disparaître le plus possible.
Samia Hurst est une bioéthicienne travaillant à l’Université de Genève et au PRN Evolving Language. Elle s’est fait connaître auprès du public suisse pendant la pandémie en tant que vice-présidente de la Task Force Scientifique Fédérale pour la Covid-19. En ce moment, elle étudie les questions de responsabilité scientifique et la gestion éthique des risques technologiques et scientifiques. Cela inclut par exemple les derniers développements en matière d’IA.
Comme un couteau suisse
ChatGPT est un peu comme un couteau suisse, pour Hurst. Le chatbot a de nombreuses capacités. Certaines sont utiles, comme résumer rapidement de longs textes – par exemple des articles scientifiques ; d’autres sont plus inquiétantes, comme générer de la désinformation. « Il est difficile d’imaginer tous les potentiels risques et bénéfices qui reposent dans ces outils IA, » dit l’éthicienne. « Notre imagination limitée est probablement l’un des plus grands dangers pour leur actuel développement rapide. »
Il est donc d’autant plus important que les opportunités et les risques soient analysés et discutés aussi largement que possible. « On oublie souvent que ce n’est jamais à propos de la technologie en tant que telle, » dit Samia Hurst. « Les circonstances sociales et économiques dans lesquelles ces nouvelles technologies sont appliquées devraient être centrales. » Les innovations technologiques, mais aussi scientifiques ne sont jamais bonnes ou mauvaises en elles-mêmes – mais le contexte dans lequel elles sont utilisées peut mener à des conséquences positives ou négatives pour les personnes impliquées.
Radiologistes et chauffeurs de taxi
Hurst donne un exemple venant de la médecine : des tests génétiques développés récemment permettent de savoir si une personne a un risque particulier de développer une certaine maladie. Un résultat positif à un tel test pourrait maintenant mener une personne à ne pas être employée ou ne pas être acceptée dans une assurance – sauf s’il y a des réserves légales et des régulations pour prévenir cette discrimination. « Donc les opportunités et les risques d’un même test peuvent être extrêmement différents dans un contexte où il y a une protection contre la discrimination et dans un autre où il n’y en a pas, » explique l’éthicienne.
Un autre exemple : les outils utilisant une IA qui peut analyser les radiographies et les scans de tomodensitométrie plus rapidement et précisément que les médecins. « C’est une superbe invention, » dit Samia Hurst, « parce que cela peut améliorer les diagnostics pour les patients – du moins pour ceux qui peuvent y avoir accès. Mais cela signifie aussi que les radiologues ont maintenant moins de travail et pourraient avoir besoin de chercher un nouveau travail en dehors de leur domaine. » Dans leur cas, ce n’est pas probablement pas trop risqué, suppose Hurst, parce qu’il y a une forte demande pour les docteurs sur le marché de l’emploi. Mais la situation serait différente en revanche si les chauffeurs de taxi étaient amenés à perdre leur travail dans le futur à cause des véhicules autonomes. Leur moyen de subsistance serait alors en danger. « Dépendant des structures sociales et économiques dans lesquelles les personnes sont ancrées, le risque peut être plus ou moins grand. »
Une FDA pour l’IA
Pour rendre l’utilisation de l’IA la plus équitable possible, des clarifications et des mesures d’accompagnement social et économique poussées sont nécessaires. « Nous ne pouvons pas laisser ça aux développeurs d’IA, » dit Samia Hurst, « ce n’est pas non plus leur expertise. » Afin d’identifier des mesures d’accompagnement appropriées, cependant, il faut d’abord effectuer le travail commun, à savoir une évaluation aussi large que possible des opportunités et des risques. « Des clarifications complètes sont nécessaires si nous voulons connaître les risques en profondeur, » déclare Hurst. « Cependant, l’humanité n’est à l’heure actuelle pas très douée pour ce genre de choses. »
Au vu du potentiel disruptif de l’IA, des discussions sur le futur sont aussi nécessaires : par exemple, sur la question de comment nous allons travailler dans le futur. Ou sur ce que nous souhaitons faire quand la technologie nous déchargera de plus en plus de nos charges de travail. Aurons-nous besoin d’un salaire de base universel ? Les applications de l’IA devraient-elles être taxées pour redistribuer un peu des profits aux perdants de l’équation ? Et y a-t-il besoin d’une institution similaire à la Food and Drug Administration (FDA), qui est responsable aux États-Unis, entre autres, de l’acceptation des médicaments sur le marché ? « Une sorte de FDA pour l’IA, » imagine Samia Hurst, « qui, en tant que corps d’experts indépendants avec un catalogue de critères transparents, pourrait permettre ou interdire certaines applications. »
Moins de risques avec le Swiss cheese model
Samia Hurst est aussi impliquée dans l’analyse de risque et la prévention dans sa recherche avec son équipe. Par exemple, elle enquête en ce moment sur comment susciter et minimiser le mieux possible les risques de développement scientifiques et technologiques potentiellement dangereux. « Une discussion est en cours sur ce que l’on appelle la recherche à double usage, » explique Samia Hurst. « Cela traite de questions comme : que faire avec un article qui montre qu’un pathogène peut être rendu encore plus pathogénique – devrait-on le publier ou non ? » D’un côté, le sujet pourrait être scientifiquement intéressant et précieux ; mais de l’autre, il pourrait être utilisé à mauvais escient par des bioterroristes.
De tels doubles usages sont inhérents à beaucoup d’innovations scientifiques et technologiques, et les rendent précaires d’un point de vue de la sécurité et de l’éthique. Les drones en sont un exemple : ils peuvent être utilisés à bon escient dans la vie civile, mais aussi comme armes de guerre. C’est pourquoi il est important d’identifier et d’analyser tous les domaines dans lesquels les innovations et les résultats scientifiques sont utiles ou nuisibles, explique Hurst. En outre, la chercheuse insiste sur la nécessité d’un modèle efficace permettant de minimiser les risques.
Le psychologue anglais James Reason a développé un tel modèle – le dénommé Swiss cheese model. Il dit que différentes couches de protections, apposées l’une sur l’autre, peuvent réduire le risque d’occurrence d’un évènement indésirable, même si chaque couche individuelle comporte des défauts. Comme une fine tranche d’emmental, il y a des trous. Cependant, si on met les tranches les unes sur les autres – pour rester avec l’analogie – et qu’on s’assure que les trous ne s’alignent pas, une protection du risque plus efficace peut être construite. « Notre idée est maintenant de développer un tel modèle pour protéger la société contre les résultats de recherche potentiellement dangereux. Les chercheurs, les associations scientifiques, les éditeurs de journaux, les bailleurs de fonds et l’état font partie de ce modèle à plusieurs couches » explique Samia Hurst. « S’ils jouent correctement ensemble, les risques pourraient sans doute être réduits. » La recherche de Hurst sur ce sujet n’en est encore qu’à ses débuts – et la même chose s’applique aux discussions sur les approches éthiques et responsables aux chatbots et à l’IA. Beaucoup de choses dépendront d’eux.