Les enjeux IA vus par l’Institut du Numérique Responsable

Fabien Abrikh, co-fondateur de l’INR -Institut du Numérique Responsable, co-animateur du groupe de travail IA responsable et chef de projet chez CAPGEMNI, a répondu à nos questions, à l’occasion de la publication d’un guide de recommandations co-construit avec les bénévoles de l’INR.

Fabien Abrikh, co-fondateur de l’INR -Institut du Numérique Responsabl

Utilité des IA en entreprise

Fabien Abrikh

L’IA est une opportunité sans précédent pour :
– de nouvelles perspectives en matière d’efficacité opérationnelle (ciblage plus fin pour personnaliser les offres, prédiction des tendances du marché…) et de prises de décisions ;
– permettre de réduire les coûts en automatisant certaines tâches répétitives et chronophages (gestion plus efficace des stocks, optimisation des trajets par exemples), libérant ainsi des effectifs pour des activités à plus forte valeur ajoutée ;
– offrir une expérience client plus personnalisée et interactive avec des chatbots ou des assistants virtuels avancés.

Néanmoins, il faudra prendre garde à ce que nos IA soient responsables, tant pour l’image de marque de la société au regard des clients que pour les clients eux-mêmes et les salariés.

ia et ethique vu par l'INR

Il faudra donc éduquer et informer à la fois le client et le consommateur car les risques sont multiples.

Fabien Abrikh : On peut les classer en six catégories distinctes.

Risques d’Hallucinations et de projections :
hallucination et IA
  • Les réponses basées sur les probabilités entre les tokens (éléments de texte) n’ont pas forcément de signification ou de rapport à la vérité puisque basées sur de simples probabilités du mot suivant. On parle alors d’hallucinations. Cela peut mener à la production de désinformation.
  • Autre limite : l’être humain fait des projections de signification au regard de ses propres filtres (culturels, éducationnels, sociaux, …) sur les outputs des GPT par exemple. Cela peut renforcer une valeur de vérité au regard de l’humain, bien que cela soit infondé.

Tout cela peut tromper les utilisateurs inexpérimentés ou mal préparés.

  • Les annotateurs humains qui renforcent l’apprentissage de l’IA (stade supervisé) peuvent influencer via leurs filtres et références culturelles. Cela peut différer de l’utilisateur.

La nécessité de filtrer les résultats avec discernement est donc indispensable pour éviter des conclusions erronées.

Illusion d’Empathie et Risques Associés :
  • Les réponses du système utilisant la première personne sans garantie de fiabilité peuvent entraîner des manipulations.
  • De plus, l’output de l’IA générative peut entrainer un transfert d’état émotionnel ou d’affects par les mots choisis, laissant croire à l’utilisateur que l’IA a des émotions ou des états d’âmes. Ainsi, la machine peut être perçue à tort comme plus performante que l’homme, engendrant une confiance trompeuse.
  • Le langage naturel peut créer l’illusion d’empathie, incitant les utilisateurs à se confier ou à divulguer des données sensibles de l’entreprise.

Tout ceci nous rappelle la nécessité de conscientiser les utilisateurs sur les capacités réelles de l’IA.

Risques d’entrainement
  • Les informations fausses ou imprécises produites par les systèmes d’IA pourraient être utilisées afin de nourrir les corpus d’apprentissage de nouveaux modèles de langage, les rendant de moins en moins pertinents.
  • A trop utiliser les IA, il y a un risque de ne plus raisonner et être moins créatif.
Risque multilingue
  • Les données utilisées pour l’apprentissage des systèmes d’IA génératives sont généralement multilingues. Mais les corpus d’apprentissage automatique pour le pré-entrainement des modèles de langage contiennent une proportion de données en anglais bien plus forte que celles des données d’une autre langue. Cela entraine des biais de représentation culturelles.

Un modèle multilingue équilibré et donc « pluriculturel » est donc nécessaire.

Problèmes juridiques et techniques :
  • Absence de vérification d’âge des utilisateurs.
  • Manque de base juridique pour la collecte externe de données.
  • Impossibilité technique d’appliquer le droit à l’oubli pendant la phase d’apprentissage, soulignant la nécessité d’une réglementation adaptée.
Risques d’usage
  • Le manque de distinctions entre un texte écrit par un être humain et celui généré par un système IA est un problème d’éthique majeur (cas du journalisme automatisé ou de la triche des étudiants).
  • Or si le texte produit pose polémique, il faut pouvoir tracer son origine pour attribuer la responsabilité.

La solution est d’introduire systématiquement des codes en filigrane (watermarks) dans les résultats suffisamment longs et élaborées des LLM pour distinguer la production d’une machine à celle d’un auteur humain. Les recherches sur les codes en filigranes doivent être simplifiés.

Un nouveau guide de recommandations pour une IA responsable

Fabien Abrikh
Rappelons qu’en tant qu’association loi 1901, l’INR n’a pas vocation à faire de l’accompagnement individualisé. En revanche, nous travaillons collectivement sur notre guide de recommandations d’une IA responsable, à partir des projets IA existants ou en devenir menés par des bénévoles de l’INR. Nous publierons le 17 juin prochain l’ensemble de ces recommandations basées sur plus de 100 bénévoles avec différents profils (data scientist, sociologue, juriste, Product owner…).

Ce premier guide d’aide permettra à chacun de se poser les bonnes questions, en adressant tous les aspects « prosperity/ people/ planet » sur l’ensemble du cycle de vie.

Cela visera à challenger des IA existantes, mais aussi à mieux construire un mandat de projet avant lancement.

Le mot de la fin ?

Fabien Abrikh
En conclusion, bien que les IA génératives ouvrent la voie à une nouvelle ère de possibilités, la vigilance et la régulation sont essentielles pour naviguer avec succès dans ce paysage technologique en constante évolution. Collaborons pour façonner un avenir numérique responsable.

Rendez-vous à partir du 17 JUIN pour découvrir le guide de recommandations de l’INR, afin d’intégrer les bonnes pratiques d’une IA Responsable à vos projets et services numériques !

Focus sur l’INR

Créée sous forme d’association en 2018, l’INR (Institut du Numérique Responsable) est issue d’un collectif qui travaille depuis 2014 sur le Green IT.  L’INR a pour mission de promouvoir un numérique soutenable, inclusif, paritaire et éthique, auprès de l’ensemble des acteurs privés, publics, politiques et associatifs. Parmi ses adhérents, on retrouve des entreprises – de la TPE au CAC40-, des collectivités locales, des grandes écoles et universités, ainsi que des associations comme la French Tech.
L’INR a créé la Charte Numérique Responsable, signée à ce jour par plus de 770 organisations, représentant presque 2,4 millions de salariés engagés. Pour aller plus loin, il est aussi possible de lancer un processus de labellisation comportant 2 niveaux d’exigence.
L’INR est domiciliée à La Rochelle, sur le campus universitaire.

Retour en haut