L’éthique encadrant l’intelligence artificielle est devenu le buzzword de l’année, incontournable pour gagner la confiance.
Selon une nouvelle étude de Capgemini Research Institute, une charte éthique encadrant l’utilisation de l’IA est devenue indispensable pour gagner la confiance du consommateur au moment où les organisations se tournent de plus en plus vers cette technologie. Cette demande d’encadrement est déjà réclamée par les plus jeunes d’après une précédente étude d’Agora Fonctions et de Harris Interactive.
Intitulée « Why addressing ethical questions in AI will benefit organizations », ce nouveau sondage a été mené auprès de 1.580 dirigeants de grandes entreprises dans dix pays et auprès de plus de 4.400 consommateurs dans six pays. Il démontre notamment que les entreprises qui utilisent l’IA de façon éthique seront récompensées. 62% de consommateurs interrogés feraient davantage confiance à une entreprise dont l’utilisation de l’IA est considérée « éthique », 61% parleraient de leurs expériences positives à leurs proches, 59% seraient plus fidèles à l’égard de l’entreprise et 55% achèteraient plus de produits, attribueraient de meilleures notes et publieraient des commentaires positifs sur les réseaux sociaux.
Réputation et chiffre d’affaires menacés
En revanche, lorsque cette utilisation de l’IA dans les interactions avec les consommateurs entraîne des problèmes d’ordre éthique, la réputation de l’entreprise ainsi que son chiffre d’affaires sont menacés. Dans ce cas, 41% des personnes interrogées se plaindraient auprès de l’entreprise, 36% lui demanderaient de se justifier et 34% cesseraient d’interagir avec elle.
Concrètement près de la moitié des personnes interrogées (47%) estiment qu’elles ont vécu au moins deux cas d’utilisation de l’IA ayant entraîné des problèmes d’ordre éthique au cours des deux ou trois dernières années. La plupart d’entre elles (75%) réclament plus de transparence lorsqu’un service est géré par l’IA et veulent savoir si l’IA les traite de façon équitable (73%). Enfin plus des trois quarts des consommateurs (76%) pensent que la réglementation devrait être renforcée pour encadrer la façon dont les entreprises utilisent cette technologie.
Trop de pression pour déployer en urgence l’IA
Du côté des organisations interrogées, neuf dirigeants sur dix estiment que des problèmes d’ordre éthique ont résulté de l’utilisation de l’IA au cours des deux ou trois dernières années. Les exemples sont cités dans le domaine médical avec la collecte de données personnelles de patients sans leur accord, dans les secteurs de la banque et de l’assurance avec des recours trop systématiques aux décisions effectués par une machine et sans arbitrage préalable. Selon les dirigeants, ces problèmes sont liés à « la pression pour déployer en urgence l’IA, à la prise en compte insuffisante de l’aspect éthique lors de l’élaboration des systèmes IA et à un manque de ressources dédiées aux questions éthiques lors de la mise en place de ces systèmes ».
Les organisations commencent donc à prendre conscience de l’importance d’une IA éthique : 51 % des dirigeants considèrent qu’il est important de veiller à ce que les systèmes soient éthiques et transparents. Et ils prennent également des mesures concrètes. L’étude révèle ainsi que 41 % des dirigeants interrogés déclarent avoir complètement arrêté un système d’IA lorsque celui-ci soulevait une question d’éthique. Comme le souligne Anne-Laure Thieullent, responsable de l’offre AI and Analytics du groupe Capgemini :
« De nombreuses organisations sont arrivées à la croisée des chemins en termes d’utilisation de l’IA. Consommateurs, employés et citoyens sont de plus en plus disposés à interagir avec la technologie, mais ils sont conscients des problèmes éthiques potentiels. Cette étude montre qu’il est nécessaire de créer un cadre et des pratiques éthiques pour l’utilisation de l’IA afin de gagner la confiance du public. Ce n’est pas qu’une question de conformité : cela peut devenir un véritable avantage en termes de fidélité et d’adhésion. Pour y parvenir, les organisations doivent se concentrer sur la mise en place des bonnes structures de gouvernance ; elles doivent non seulement établir un code de conduite basé sur leurs valeurs mais aussi adopter une approche « ethics-by-design » et surtout, se concentrer sur l’information et la responsabilisation de chacun dans la manière d’interagir avec les solutions IA ».
Capgemini recommande une approche en trois volets destinée aux dirigeants, chefs d’entreprise, aux équipes en contact avec les clients et les employés, telles les RH, le marketing, la communication et le service client, et aux responsables de l’intelligence artificielle, des données et de l’informatique et leurs équipes. L’objectif étant de sensibiliser l’ensemble des personnels aux questions éthiques, de renforcer la confiance, de rendre les systèmes IA aussi transparents et compréhensibles que possible et d’utiliser les outils technologiques qui permettent d’intégrer l’éthique dans les systèmes IA. Comme l’explique Luciano Floridi, directeur du Digital Ethics Labs de l’Oxford Internet Institute : « La méthode classique pour gagner la confiance, avec des interactions IA en particulier, peut se résumer en trois mots : transparence, responsabilité et responsabilisation. La transparence consiste à permettre aux gens de voir ce que vous faites, la responsabilité signifie que vous êtes responsable de ce que vous faites, et la responsabilisation correspond au devoir que les autres ont de vous alerter si vous avez agi de façon inappropriée ou incorrecte. »
Laisser un commentaire