par Hippolyte Ancelin, Consultant senior, Emilie Kuhlmann, Consultante et Adeline Taravella, Directrice, chez Eurogroup Consulting
L’intelligence artificielle (IA) s’annonce comme l’un des défis technologiques majeurs de ces prochaines décennies. Mais elle représente également un enjeu géopolitique, un vecteur de transformation économique et sociétal. Et son développement rapide suscite, concomitamment, de nombreuses interrogations et inquiétudes.
Car les enjeux éthiques de l’IA sont bien réels : comme tout outil ou moyen, elle peut être mise à contribution pour le meilleur comme pour le pire, selon les choix humains qui la régissent. Dès lors, réfléchir à l’usage responsable de l’intelligence artificielle n’est plus un luxe mais bien une nécessité !
Il devient alors nécessaire que les organisations s’emparent du sujet au plus haut niveau, et mettent en place un système de management de l’éthique de l’intelligence artificielle pour protéger l’organisation, en alignant ses usages de l’IA avec ses valeurs propres et celles de la société. Et surtout, pour offrir une valeur supplémentaire à des consommateurs toujours plus soucieux de leur impact.
Nous sommes convaincus que le déploiement de leviers d’actions stratégiques, organisationnelles et techniques permettra la mise en place d’une intelligence artificielle responsable au sein des organisations.
Éthique et IA : pourquoi s’interroger sur les enjeux ?
Les organisations, publiques comme privées, sont amenées à recourir de plus en plus à l’intelligence artificielle. Elle leur promet des gains de productivité et d’efficacité, en réalisant à la place de l’humain un nombre de tâches en quantité comme en complexité, qui permettent à ce dernier de s’en dégager. Elle est également à la base de la production de nouveaux services à forte valeur ajoutée.
– Une éthique de l'IA pour quoi faire ?
L’explosion du volume de données produites et exploitées ouvre la voie à des utilisations variées de l’intelligence artificielle. Mais cet essor soulève également des craintes, notamment d’ordre éthique. Veiller à ce que l’intelligence artificielle se comporte de façon responsable est donc nécessaire, à plus d’un titre :
- créer de la valeur tout en renforçant la confiance des usagers dans l’intelligence artificielle ;
- prévenir les risques réputationnels pour l’organisation ;
- réduire les risques juridiques.
– Un usage éthique pour prévenir les dérives
L’intelligence artificielle repose sur des algorithmes conçus et développés par des humains. Ces derniers ne sont pas exempts de biais, conscients ou inconscients. Les programmes informatiques qui en découlent peuvent alors adopter des pratiques non voulues. Elles se traduisent potentiellement par des discriminations, ou autres comportements contraires aux principes éthiques admis.
Ainsi, telle solution d’IA censée prévoir, par l’analyse statistique, la criminalité, pourrait se révéler discriminatoire vis-à-vis de certaines populations, quand tel autre programme intelligent de discussion tiendrait des propos racistes et négationnistes sur un réseau social.
– Un usage éthique comme source de valeur
Les cas de comportements non voulus et contraires aux valeurs rappellent un fait essentiel concernant l’intelligence artificielle : un programme informatique, quel qu’il soit, est le produit d’un environnement social, organisationnel et culturel. Ce n’est donc pas qu’une problématique technique, mais bien un enjeu d’organisation et de gouvernance, qui concerne l’ensemble des structures utilisatrices.
C’est en se saisissant de la question de l’éthique des algorithmes que les entreprises et les organisations pourront s'assurer de leur conformité avec leurs propres valeurs, mais aussi celles de la société. Or, si elles sont conscientes des enjeux qui s’y rattachent, le niveau de maturité est encore perfectible.
Cadre éthique de l’IA : une préoccupation récente des organisations
– Quelle perception des enjeux éthiques dans les organisations ?
De manière générale, le niveau de connaissance au sujet de l’intelligence artificielle est relativement faible. Même si l’IA est perçue par les décideurs comme une opportunité pour s'améliorer, peu d’acteurs comprennent son fonctionnement et mesurent les risques associés. Cantonnée à une problématique technique, l’IA et ses biais éventuels sont souvent du ressort des développeurs et experts techniques.
Cette invisibilisation relative se ressent également au niveau des comités éthiques, lorsqu’ils existent. Ils se saisissent rarement des sujets technologiques, du fait d’une sous-estimation de la criticité du risque, et du manque de compétences.
Quand les organisations reconnaissent l’importance de se former, seuls les collaborateurs directement impliqués dans la conception ou l’utilisation d’outils employant l’IA sont directement ciblés.
– Un manque de maturité organisationnelle
Les Directions des services informatiques (DSI) sont davantage conscientes des risques éthiques associés à l’utilisation de l’intelligence artificielle. Pour autant, ce souci se traduit rarement par la mise en place de mesures organisationnelles et techniques, destinées à réduire ces risques. Pour preuve, aujourd’hui la qualité éthique n'est pratiquement jamais un critère de sélections lors de l’acquisition de solutions d’IA.
– Des dispositifs techniques de réduction du risque balbutiants
Lorsque la solution est développée en interne, la qualité des données est une préoccupation forte. Les biais éthiques sont largement liés au manque de diversité et de qualité des données employées. Pourtant, les efforts de mise en qualité des données ignorent souvent la dimension éthique. Cela s'explique majoritairement par un manque de sensibilisation ou encore par une sous-estimation de l'importance de la problématique.
Malheureusement, le sujet suscite peu de réflexions en interne, ou dans le cadre de cercles professionnels, limitant de fait les opportunités de partage de bonnes pratiques dans le domaine.
Vers une Intelligence Artificielle plus éthique et responsable
Rappelons-le : avant d’être technique, le respect de l’éthique est bien une affaire de responsabilité humaine. La loi seule ne peut suffire car elle peine à évoluer aussi rapidement que la technologie.
Il y a une marge de manœuvre importante pour une autorégulation des comportements et usages.
Les organisations ont donc bien une responsabilité dans la définition et l’exploitation d’une IA responsable, qui respecterait tout à la fois le cadre légal et des règles en phase avec leurs propres valeurs et celles de la société tout entière. A ce titre, un ensemble de mesures stratégiques, organisationnelles et techniques peuvent être mises en œuvre pour une "AI for good", qui intègrerait et préserverait les valeurs communément partagées.
La préoccupation éthique doit être positionnée à un niveau stratégique, compte tenu de la nature des risques encourus par les organisations (risque juridique, risque financier, risque d’image…).
– Réfléchir à l’éthique de l’intelligence artificielle n’est aujourd’hui plus un luxe mais une nécessité
Nous avons la conviction que les directions doivent s’emparer du sujet et mettre en place un système de management de l’éthique de l’intelligence artificielle. Il permettra d’une part d’aligner les usages avec les valeurs de l’organisation et de la société, et d’autre part d’offrir une valeur supplémentaire aux consommateurs.
La réflexion implique une concertation, la plus large possible, pour s’interroger sur les valeurs de l’organisation, et formaliser les principes directeurs éthiques applicables à l’intelligence artificielle dans une Charte. Le sujet devra être adressé dans une instance adaptée, intégrée au sein d’un comité éthique existant, ou d’un comité dédié. Qui, dans sa composition, pourra assurer une diversité des expertises : responsable éthique, développeur, chef de projet, juriste…
– Ethics by design : une conception numérique responsable
Au niveau de la DSI, la diversité dans les équipes de développement est essentielle pour promouvoir une IA elle-même plus mixte et représentative. Cette diversité doit s’accompagner d’une promotion d’une IA "ethics by design", où l’éthique ne serait plus abordée comme une exigence annexe, mais bien comme un élément structurant et impératif de l’algorithme. Dans le cas où l’organisation ne développe pas elle-même ses solutions mais les acquiert, une inclusion dans le processus d’achat, et une responsabilisation des fournisseurs au sujet peuvent être développées.
– Anticiper les évolutions rapides de l'IA
Le domaine de l’intelligence artificielle étant l’objet de progrès très rapides, un dispositif de maintien des connaissances et des pratiques à l’état de l’art est indispensable. Celui-ci doit notamment passer par une veille réglementaire et technologique, mais aussi par une révision des pratiques aussi souvent que nécessaire.
Les algorithmes d’IA se perfectionnant avec le volume de données traitées, leur comportement est susceptible d’évoluer en conséquence, justifiant ainsi la mise en place d’un suivi et d’une évaluation tout au long de leur cycle de vie. L’éthique des algorithmes doit ainsi être pensée à la conception, mais aussi une fois en production.
Enfin, à l’heure où la technologie nourrit encore de nombreux fantasmes, les organisations ne doivent pas négliger la communication autour de l’IA responsable, en s’adressant aux collaborateurs, aux clients et aux citoyens : car au-delà de la sensibilisation il s’agit de promouvoir l’usage qui peut et doit être fait de l’IA.