IA et solutions RSE digitales : attention aux angles morts

L’intégration de l’intelligence artificielle (IA) dans les plateformes RSE séduit par ses promesses, notamment avec les avancées des technologies génératives. Avec les équipes abCSR et ses parties prenantes, nous travaillons sur ces sujets depuis de nombreuses années pour qualifier quand et comment les intégrer. Et à ce jour, nous avons arbitré de ne pas mettre à disposition de nos clients nos travaux de R&D.

Voici en quelques lignes ce qui nous pousse à la vigilance à ce jour.

Nous poursuivrons bien sûr à questionner ces prises de position en fonction de l’évolution des technologies.

1. Sécurité des données

Pour assurer pleinement la sécurité des données et du fait des modalités économiques de mises à disposition d’infrastructures dans le « cloud », le déploiement de technologies d’IA générative nécessite de déployer des infrastructures physiques (serveurs) spécifiques et cloisonnées. Cela ne permet pas de bénéficier du savoir-faire des hébergeurs généralistes, notamment en termes de disponibilité et de sécurité.

2. Impact environnemental

Les moyens technologiques et notamment les processeurs nécessaires pour faire tourner des algorithmes d’IA générative sont très consommateurs de ressources : énergie et eau pour le refroidissement. En fonction des publications, on considère qu’une technologie d’IA générative consomme 10 à 100 fois plus d’électricité (hors phase d’apprentissage) qu’un algorithme classique, et un ratio encore plus important pour la consommation d’eau (source University of California Riverside). Cela va à l’inverse des efforts que nous réalisons sur notre solution pour réduire techniquement l’empreinte environnementale de l’exploitation de nos environnements techniques.

3. Une transparence mise à mal par l’opacité des algorithmes

Une plateforme RSE se doit de garantir la traçabilité de l’ensemble des calculs et autres traitements de données. Or, les algorithmes d’IA, notamment ceux fondés sur l’apprentissage automatique, fonctionnent souvent comme des « boîtes noires » (Burrell, 2016, How the machine ‘thinks’), rendant difficile l’explication des décisions prises. Cette opacité contrevient aux principes mêmes du reporting RSE, qui exige des justifications précises et compréhensibles des données publiées.

4. Des biais amplifiés, pas corrigés

L’IA reflète les biais de ses concepteurs ou des données d’entraînement. Des études (O’Neil, Weapons of Math Destruction, 2016 ; Mehrabi et al., 2021, A Survey on Bias and Fairness in Machine Learning) ont démontré que les algorithmes peuvent reproduire voire aggraver ces biais. En matière de RSE, cela peut fausser les calculs d’indicateurs ou favoriser des propositions d’actions biaisées par des données historiques incomplètes ou inexactes.

A contrario, l’approche algorithmique classique permet de disposer d’une fiabilité à 100% des calculs et d’une transparence totale sur les modalités d’obtention des résultats.

5. Une non-reproductibilité des réponses

Un autre point perturbant pour les utilisateurs de l’IA réside dans le fait qu’à une même question posée, la réponse donnée sera toujours différente. Dans une approche itérative de construction d’un rapport, cela pose le problème de faire converger un texte d’argumentation, de le faire valider par les acteurs sans que tout soit instable de façon perpétuelle.

6. L’humain au centre

Les parties prenantes, internes comme externes, attendent des engagements sincères et incarnés. Le recours excessif à l’IA peut être perçu comme un écran entre l’entreprise et ses responsabilités sociétales. Un reporting trop automatisé ou aseptisé peut nuire à la crédibilité de la démarche RSE et à l’engagement des collaborateurs.

En synthèse, les arguments environnementaux et humains évoqués rejoignent les dernières prises de position de Jean-Marc Jancovici (source Radio France) qui indique sur les investissements dans l’IA : « on n’est peut-être pas en train de gérer les priorités dans le bon ordre ».