IA, algorithmes, données collectées…quelle éthique pour quelle finalité ?

Par Jean-Luc Molins

Montre connectée, système GPS dans nos voitures, assistants vocaux ; reconnaissance d’images, de vidéos, de la voix ; modélisation numérique et maintenance préventive ; robotique physique et logicielle ; traduction machine et interface en langage naturel…Les systèmes IA deviennent de plus en plus présents dans nos vies et la société. Cette omniprésence devrait susciter de profonds questionnements sur l’opacité des algorithmes avec leurs biais inévitables, sur l’utilisation des données massives au regard de la protection de la vie privée ; ou sur l’usage qui pourraient en être fait par des employeurs ou des assureurs, par exemple. Car, comme pour toutes les technologies, de réels risques existent avec leur diffusion (reconnaissance faciale, trading algorithmique dans la finance, traitement de données de patients, etc…) si ces technologies restent confiées à des spécialistes et exploitées sans débat sociétal sur leur usage et leur finalité.

Le pilotage de l’activité via les progiciels de gestion intégrés de type ERP[1], ou la mise en place de système IA dans un cadre professionnel modifie la façon d’accomplir son travail. Cela traduit une gouvernance de l’activité professionnelle par les nombres et une hybridation du métier par les données. Ces nouveaux cadres de travail nécessitent de repenser les activités et les façons de travailler.  Contrairement aux discours apocalyptiques de certains sur le remplacement des emplois par des robots, le travail ne disparait pas. Les études montrent qu’on assiste à une transformation, plus ou moins forte, du contenu des emplois avec une tendance à l’élévation du niveau de qualification. Développer la formation et penser les organisations du travail comme apprenantes n’est-ce pas la meilleure façon de construire les évolutions ? Un cadre réglementaire n’est-il pas également nécessaire pour éviter tout risque de moins disant social et écologique ? Ce risque s’illustre notamment par la plateformisation de la relation de travail qui exclut ces travailleurs de la protection de la législation du travail et de la protection sociale, ainsi que le transfert d’activité d’entreprise vers ces plateformes suivant une logique de sous-traitance et de dumping social et environnemental.

A l’heure de la 5G et des objets connectés, de nouveaux défis sociaux et environnementaux pointent. Ils nécessitent de s’interroger à la fois sur les nouvelles prouesses mais aussi sur les nouveaux dangers liés à ces technologies. Cela pose la question essentielle de garder le contrôle et de maîtriser les effets des solutions à base d’IA et d’algorithmes sur la société et le travail au moyen d’un encadrement de leur conception et de leur usage.

Comment garantir dans la société des dispositifs IA inclusifs, sécurisés et de confiance ?

Pour cela, il est nécessaire de concevoir une technologie accessible à tous, partout, quel que soit le mode de vie ou le type de foyer, chez soi ou au travail, à la ville comme à la campagne. Elle doit s’adapter à chaque entreprise, chaque collectivité, chaque organisation quels que soient son fonctionnement et ses objectifs. Ensuite, cette technologie doit pouvoir être diffusée à travers des réseaux sécurisés, fiables et qui s’ajustent aux besoins des utilisateurs, à travers des objets attentifs à leur environnement, et sous contrôle des utilisateurs. Enfin, de sa conception à sa mise en fonctionnement, elle doit être conçue à partir d’une démarche éthique avec les utilisateurs finaux, les industriels, commerciaux, institutionnels et académiques ; et intégrer à la fois la sécurité et la confidentialité, et la gestion transparente et sécurisée des données à travers des réseaux fiables et interopérables.

Dans le champ du travail, elle peut apporter une aide dans la complexité de la vie au travail et de son rapport au travail. Cependant, elle représente aussi un risque au regard notamment du paradigme des plateformes qui repose sur l’invisibilité de la relation de subordination. Or, les activités des travailleurs des plateformes produisent de la valeur, sont encadrées d’un point de vue contractuel avec les conditions générales d’utilisation (CGU), sont sujettes à des métriques de performances (followers, scores, likes, etc.) et donnent lieu à une para-subordination technique (réponse aux ordres de quelqu’un, alertes, notifications, géolocalisation, etc.). La main libérale évacue les variables sociales de l’innovation technologique pour la faire apparaître comme une phase nécessaire d’un progrès indéfini. Au contraire, situer les dispositifs d’IA à partir du prisme du travail et de celle ou de celui qui réalise l’activité éclaire sur les questions essentielles à se poser. Négocier l’algorithme est fondamental car il fait partie du métier. Les sujets déterminants à traiter vont des conditions d’autorisation et de contrôle des systèmes par rapport à leur finalité, à la règlementation sur l’utilisation des données personnelles, en passant par la responsabilité sociale et sociétale en cas de problème. Enfin, le développement des environnements numériques au travail introduit de nouveaux besoins en formation qui lui sont propres.

Quelle relation humain – machine ?

Il est nécessaire d’interroger l’utilité et la finalité des projets et des technologies déployées, afin de construire du sens au travail et par le travail. Solutions numériques et solutions organisationnelles vont de pair. Les apprentissages et le rôle dévolu au professionnel dans les nouveaux cadres de travail seront déterminants et structurants. Il faut concevoir ces organisations de travail avec l’objectif de valoriser l’activité humaine en la concentrant sur les tâches gratifiantes qui nécessitent le recours à l’analyse et la créativité. Le respect de l’autonomie humaine c’est permettre à l’humain en interaction avec un système IA de conserver le contrôle et sa capacité de décision. Les moyens technologiques doivent être mobilisés pour constituer une aide à la décision et à l’exercice professionnel, toutes les tâches fastidieuses et répétitives devant être automatisées. Les fantasmes et les résistances d’usage liées à la méconnaissance du fonctionnement d’un système peuvent apparaitre si l’utilisateur ne dispose pas d’une compréhension suffisante.  Le design d’un outil ou service a un impact sur les choix et les usages des utilisateurs. La CNIL dans son cahier IP « La Forme des choix » démontre que le design et l’expérience utilisateur sont déterminants pour rendre effective la protection de la vie privée. Elle pose les bases d’une future régulation et d’un nouveau champ d’analyse de conformité des régulateurs. Le Règlement Général sur la Protection des Données Personnelles (GDPR) prévoit la nécessité d’une base légale pour un traitement sur des données personnelles, une méthodologie dite de protection des données par conception et un droit d’opposition au profilage automatisé ayant un impact significatif. Les lois sectorielles précisent également des spécificités par type d’industries et domaines d’activité (DSP2 dans le domaine bancaire, loi sur les données de santé, loi open data et obligations pour les organismes publics). Dans le cadre de la loi pour une République numérique en France, les administrations d’État ou les collectivités de droit public qui utilisent des traitements algorithmiques pour prendre des décisions concernant les individus doivent faire figurer une mention explicite du traitement et fournir une information individuelle et générale sur sa finalité, les données utilisées, le paramétrage, le degré d’implication du traitement dans la prise de décision. A noter que ces algorithmes, par opposition à ceux des entreprises, ont la particularité d’être applicables à tous les citoyens sans choix possible. La mise en application difficile de l’algorithme Parcoursup met néanmoins en évidence des résistances face à ce changement.

Le management de proximité est-il soluble dans l’IA ?

Le développement des technologies numériques donne lieu à des dispositifs qui modifient les conditions d’exercice professionnel. Trop souvent les gains de productivité liés à l’automatisation de certaines tâches ne sont pas toujours avérés dans la réalité, même si les nouvelles organisations du travail les anticipent en réduisant la force de travail. Les questions prégnantes sont la charge de travail et le manque de moyens dont le manque d’effectif, qui rappelle au manager qu’il est « tout à la fois ». Le pilotage par des progiciels de gestion intégrés de type ERP[2] se traduit dans les faits par une nouvelle forme de taylorisation connectée. Or, tous les processus de travail ne peuvent pas être « algorithmisés ». De facto, cette situation dépossède le management de proximité de certains leviers lui assurant sa légitimité vis-à-vis des équipes.

Dans le cadre de l’E. Administration, les problèmes rares, parce qu’ils sont moins faciles à traiter avec les dispositifs IA, comportent le risque d’aller vers une confusion entre le monde probabiliste et le monde réel s’ils ne sont pas traités correctement par l’expertise professionnelle. De manière insidieuse, le développement d’usages prédictifs nous amène à moins réfléchir au risque que l’on est prêt à accepter, et à être moins vigilant sur ce que l’algorithme peut ou ne peut pas.

Avec la reconfiguration des organisations du travail liée à l’introduction des dispositifs IA, de nouvelles facilités et contraintes apparaissent lors de l’exécution du travail et questionne le rôle et la place de chacun. L’afflux de processus algorithmiques représente à la fois une aide apparente et le risque de retranchement derrière une machine. Il s’agit de cultiver la responsabilité pour celle ou celui qui s’appuie sur des algorithmes pour prendre une décision, en la reliant à la dimension collective du travail. D’où la nécessité dans un contexte où l’information est accrue et l’immédiateté dans les relations de travail devient la règle, d’avoir une disponibilité accrue du management de proximité pour parler du travail et exercer sa fonction d’appui et de soutien. Il est illusoire de croire que des dispositifs IA seront en capacité de se substituer à l’intelligence humaine et l’expertise métier de l’encadrement. La transformation numérique des entreprises va nécessiter de revoir les pratiques managériales pour valoriser et favoriser le « bien travailler », et laisser plus de place au partage d’informations, l’entraide et la coopération.

L’exemple de l’entretien annuel

L’entretien d’évaluation est le moment où se cristallise tous les facteurs de risques psychosociaux dont la définition a été donnée par le collège d’expertise réuni autour de Gollac et mis en place par le ministère du Travail : « les risques pour la santé mentale, physique et sociale, engendrés par les conditions d’emploi et les facteurs organisationnels et relationnels susceptibles d’interagir avec le fonctionnement mental ». Cette définition a été retenue par l’accord sur la prévention des RPS dans la fonction publique le 22 octobre 2013. Cet exercice n’échappe pas à l’émergence de dispositifs standardisés, de type progiciels de gestion RH, qui présentent le risque d’éluder les vrais sujets à traiter lors de l’entretien d’évaluation. Les implicites que contiennent ces outils à travers leur paramétrage ne doivent pas rendre évaluateur et évalué esclave d’un processus prédéterminé avec des critères qui ignorent l’alchimie des intuitions et des relations humaines.  

Le rôle de tous les animateurs d’équipes de travail (manager, chef de projet) est déterminant pour l’appropriation des outils numériques ainsi que la définition d’usages communs et partagés. Cela suppose une nouvelle forme d’expertise sur la maîtrise des outils numériques qui s’ajoute à celle relative au métier et au rôle d’animateur du collectif de travail.

La plateformisation des entreprises, cheval de Troie de la précarisation ?

Quelle place donne-t-on au système IA dans le travail ? Qui peut éditer un algorithme ? Quels critères et quel contrôle des algorithmes ?

« La machine simule une pensée, elle ne pense pas par elle-même, mais vise à faire croire à d’autres qu’il y a là une pensée. »[3] L’algorithme n’a pas de conscience ni de problème éthique. Il ignore ce qu’il fait. C’est la raison pour laquelle il est incapable d’inscrire le travail dans un contexte humain, social et écologique qui lui donne sens. Face à cela les enjeux de formation sont évidemment fondamentaux dans la mesure où ce ne sont pas seulement les métiers qui évoluent mais aussi l’utilisation des outils, ce qui est une dimension nouvelle. L’algorithme détermine concrètement les conditions de travail car c’est lui qui délivre les instructions à suivre. Il peut être maltraitant vis-à-vis du travailleur qui est subordonné à ses directives. La vigilance est nécessaire pour inciter les acteurs de la chaîne algorithmique, du développeur à l’utilisateur à prendre conscience des enjeux de leur activité. Cela implique une responsabilité et des obligations de certification, de qualification et d’explication au sens humain du terme. 

L’IA contribuera peut-être à éclairer sous un autre jour ce que c’est qu’être humain, mais elle est encore loin de construire des liens affectifs, de l’empathie. Elle ne nous garantira la possibilité d’être plus libre que si nous le décidons. C’est pourquoi il est nécessaire d’encadrer les pratiques professionnelles de tous les corps de métiers intervenants sur les systèmes IA, et de leur donner les moyens de transférer leur éthique dans les systèmes IA. Eurocadres[4] a adopté une résolution sur la nécessité de certification des systèmes IA et la mise en place d’un droit d’alerte et d’intervention pour les professionnels intervenants sur les algorithmes (développeurs, data scientists, etc.).

Quelle politique RH de déploiement des nouvelles technologies ?

Dans le domaine RH et la formation, les nouveaux outils RH se traduisent par un éloignement des RH et de leurs propres pratiques. « Le risque qu’introduit l’IA est de franchir une nouvelle étape dans l’éloignement du réel, d’où l’importance des marges laissées aux acteurs pour opérer des compromis entre travail réel et représentation chiffrée de ce travail »[5]

Algorithme et recrutement : la fabrique à clones ?

La mode est aujourd’hui au « recrutement prédictif » automatisé visant à repérer les candidats dont non seulement les compétences, mais surtout la personnalité, répondront le mieux aux attentes de leur futur employeur.  Les tenants des « people analytics » importent des USA des techniques et développent un marketing sur un marché jugé porteur : le recrutement des entreprises.

La question n’est pas ici d’avoir une posture technophobe vis-à-vis de l’utilisation des nouvelles possibilités issues du progrès technologique. Elle est plutôt de s’interroger sur son cadre d’utilisation et ses limites, notamment vis-à-vis des risques potentiels de discrimination.

Le profilage, construit à partir des données personnelles d’un individu, consiste à analyser et prédire son comportement. Il est fréquemment utilisé par les banques, les assurances, les régies publicitaires, et aussi par les employeurs. La loi a mis en place un garde-fou qui prévoit qu’une personne ne peut pas faire l’objet d’une décision entièrement automatisée si elle n’a pas donné son consentement explicite[6]. Le droit à l’intervention humaine dans une décision automatisée est défini dans l’article 22 de la RGPD[7]. Cela n’empêche cependant pas ce marché de prospérer aux frontières ou dans les failles du droit existant. 

Les systèmes « prédictifs » sont le plus souvent basés sur des algorithmes nourris avec données issues de tests de personnalité, d’itinéraires professionnels issus de CV en ligne. Mais d’autres pratiques émergent comme l’utilisation d’entretiens vidéo[8] ou d’applications basées sur des jeux vidéo pour « capter » des micro-données comportementales (expressions faciales, prosodie, expressions gestuelles, contenu verbal, forme des visages, look,…). Ces systèmes « prédictifs » sont censés prédire qui va réussir sur tel ou tel poste.

Les machines learning sont paramétrées par des humains, eux-mêmes sources d’erreur. Elles sont nourries avec des données de plus ou moins bonne qualité, et en quantité souvent insuffisantes pour représenter toute la diversité existante afin d’assurer des prédictions en phases réelles avec les attentes. Les exemples de faux positifs[9] sont légion dans les traitements automatisés car les algorithmes ne savent pas ce qu’ils font. Car c’est l’humain qui les a configuré et la qualité du résultat du calcul statistique dépend aussi de la quantité et de la qualité des données initiales.

Dans la mesure où les systèmes IA « apprennent » à partir des données qu’ils accumulent, ils sont enclins à reproduire les mêmes modèles, les mêmes stéréotypes.  Tout le contraire de ce que représente l’enrichissement, pour une organisation ou une entreprise, procuré par la diversité sociale et culturelle.

L’IA, solution pour davantage de mixité sociale et culturelle ?

L’exigence de diversité, de non-discrimination et d’équité nécessite d’avoir un résultat juste depuis la conception d’un service jusqu’à sa délivrance. Cela exige d’attendre des algorithmes davantage de neutralité et de rationalité par rapport aux humains. Cependant, le processus de création d’un algorithme dépend de son concepteur et il existe des biais inévitables : de type cognitif, liés au manque de diversité des développeurs, aujourd’hui très majoritairement masculins ; de type statistique, liés aux données ; de type économique, liés à l’objectif même du service ; de type culturel liés à l’environnement où est développé l’algorithme. La correction des biais est complexe car elle peut générer d’autres biais, notamment dans le domaine de la reconnaissance faciale. Cette exigence comprend aussi l’accessibilité universelle au service. Au final, elle repose sur des choix de l’équipe de conception qui doivent être assumés et explicités.

La mathématicienne américaine Cathy O’Neill a alerté face aux dangers des algorithmes obscurs déployés à grande échelle qui ont conduit à des scandales dans des domaines très variés tels que : le classement des universités dont les critères ont profondément dégradé la gestion des établissements scolaires, la prédiction de la récidive des prisonniers qui s’avère discriminatoire à l’égard de certaines minorités, ou encore les publicités ciblées couplées à des offres de prêt bancaires pour les personnes défavorisées.

L’exigence de responsabilité concerne l’organisation, par les acteurs impliqués dans la chaîne allant de la conception à l’utilisation d’algorithmes, de l’auditabilité et de la traçabilité du système afin de minimiser les incidences négatives et de prévoir des voies de recours. La détermination de la charge de la preuve en cas de problème est un point important qui peut orienter la conception d’un service basé sur de l’IA.

Transition social-écologique : ce que permettent les nouvelles technologies

Empreinte carbone grandissante, extraction de métaux rares, consommation d’énergie, absence de réelle volonté de recyclage des terminaux, développement du commerce international, etc. L’exigence de bien-être sociétal et environnemental questionne sur la finalité du service et ses conditions de réalisation. Cette responsabilité renvoi aux implications sociales et environnementales de l’IA. Elle concerne l’organisation de l’auditabilité et de la traçabilité du système sur toute la chaîne allant de la conception à l’utilisation d’algorithmes afin de prévoir des alternatives et de miniminiser les incidences négatives. L’auditabilité des algorithmes ne doit pas trouver sur sa route « le secret des affaires » qui empêcherait, au nom de la propriété intellectuelle et industrielle, la transmission des informations pertinentes pour expliciter les choix qui prévalent dans la restitution des résultats. Cette explicabilité doit conditionner la conformité ou la certification du système IA aux enjeux socio-environnementaux.  

Afin d’établir un cercle vertueux entre les entreprises soucieuses de connaître les conditions sociales et environnementales de fabrication  sur l’ensemble du processus de fabrication et de la chaîne de valeur, et les entreprises qui s’approvisionnent dans de longues chaînes d’approvisionnement complexes et internationales et ne connaissent pas ou ne veulent pas connaître les conditions sociales et environnementales chez leurs fournisseurs il est nécessaire de générer ces informations de manière fiable, et de les transmettre le long de la chaine de valeur. Ce cercle vertueux pour les entreprises évitera aussi la concurrence déloyale. Pour cela les nouvelles technologies, dont l’IA, doivent être mobilisées pour assurer la traçabilité des conditions sociales et environnementale de fabrication des services et des produits manufacturés. Le traçage et le suivi numérique du début du processus de fabrication (matière première) à la livraison au client ou à l’usager est possible en utilisant notamment la technologie Block Chain et les étiquettes RFID.    

En guise de conclusion provisoire

La technologie n’est pas neutre. La question n’est pas seulement de savoir « comment on l’utilisera ? » mais « comment on pourra ou sera autorisé à l’utiliser ? », car il y a des implicites liés aux choix d’architectures techniques, ainsi que des modalités de régulation à définir.

Les choix d’aujourd’hui déterminent notre modèle de société de demain. Il en est de même pour le fonctionnement des organisations de travail. Or, beaucoup d’interrogations et de désaccords par rapport aux règles du métier et à l’éthique surgissent vis-à-vis des choix des directions, car basées sur le court-termisme et la non prise en compte des réalités du terrain. Il est nécessaire de renouer avec l’éthique et le sens du travail. C’est pourquoi les orientations qui président à l’intégration des dispositifs IA doivent être anticipées pour être pensées, et questionnées, à partir des sujets essentiels que sont l’emploi et la reconnaissance des qualifications, le développement de la formation qualifiante, les libertés et les moyens d’expression, les conditions de vie et de travail. De la création d’une filière data connectée aux métiers hybridés au plan de gestion des compétences, en passant par le rôle de garants sur l’utilisation des nouvelles technologies, le rôle des métiers de la filière RH sera déterminant pour réussir la mutation numérique.  Encore faudrait-il qu’elle dispose des moyens et de la formation nécessaire pour mener à bien cette transition.

Inscrire les évolutions organisationnelles et les conditions de vie et de travail de celles et ceux qui réalisent l’activité dans le sens du progrès social, en les conjuguant avec un contenu de croissance économique répondant aux besoins de l’activité et des enjeux environnementaux, est la clef du bon scénario pour remettre l’humain au centre des évolutions.


[1] Enterprise Resource Planning

[2] https://fr.slideshare.net/Apecfr/etude-apec-les-cadres-organisateurs-distance

[3] Servitudes virtuelles, Jean-Gabriel Ganascia, 2022

[4] https://www.eurocadres.eu/our-positions/resolution-professionals-managers-social-responsibility-for-an-ethical-ai/?hilite=resolution+ethical+ai

[5] Sociologie du numérique au travail, Marie Benedetto-Mayer – Anca Boboc, 2021

[6] https://www.cnil.fr/fr/vos-droits-lintervention-humaine-face-votre-profilage-ou-une-decision-automatisee

[7] https://www.cnil.fr/fr/reglement-europeen-protection-donnees/chapitre3

[8] Entretiens vidéo et intelligence artificielle – Une nécessaire régulation – 28 novembre 2019 – Jean-François Amadieu – Professeur à l’Université Paris 1 Panthéon Sorbonne

[9] Un faux positif est le résultat d’une prise de décision dans un choix à deux possibilités (positif et négatif), déclaré positif, là où il est en réalité négatif.

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Image Twitter

Vous commentez à l’aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s