A part permettre la croissance d’Uber ou de Salesforce, le management algorithmique peut-il contribuer au progrès social?

September 20, 2021
Lecture 8 minutes

Le 6 juin 2020 a vu naître une controverse extrêmement violente dont, chose étonnante à l'heure des réseaux sociaux mondialisés, vous avez été épargnés grâce au phénomène des bulles de filtrage. Le bilan fait état de deux malheureuses et prestigieuses victimes dans une controverse digne de celle entre Louis Pasteur et Robert Koch. La controverse de 2020, quant à elle, a démarré sur un simple tweet d’un chercheur de l'université de Penn à propos des biais des systèmes de machine-learning. Il s'est fait reprendre par le célèbre Yann LeCun, ce franco-américain en charge de l’Intelligence Artificielle (IA ou AI) chez Facebook qui imputé la faute aux jeux de données démographiquement biaisés à partir desquels les algorithmes avaient “appris” ; refusant un biais potentiel des algorithmes eux-mêmes.  La controverse s’est alors envenimée entre Yann LeCun et Timnit Gebru, la chercheuse américaine d’origine éthiopienne, icone intersectionnelle de la Tech américaine, reconnue pour avoir fondé le mouvement “Black in AI” au MIT puis dirigé l’équipe Éthique de l’IA chez Google.T.Gebru s’est opposée puis révoltée contre Y.LeCun auprès de qui elle et son équipe avaient largement démontré combien les algorithmes eux-mêmes sont discriminatoires par la nature des questions qu’on leur pose, par leur cahier des charges, par les choix de programmation, par l’absence de droit à l’oubli et le détournement que cela engendre. Pour la citerles limites actuelles de nos connaissances n’absolvent pas notre responsabilité. En tant que chercheurs et développeurs, nous devons déplacer notre priorité de l’intention vers l’impact réel. [...Nous devons] privilégier intentionnellement des choix de conception qui favorisent les acteurs marginalisés exposés à un préjudice à cause de la technologie que nous développons”.

Le 29 juin 2020, Yan LeCun mettait fin à son compte Twitter en appelant ses partisans à stopper le harcèlement envers Timnit Gebru, tellement la polémique avait pris des proportions et une virulence démesurées. Le 19 février 2021, Timnit Gebru était licenciée de Google, pour des motifs de désaccord avec sa supérieure et de non-respect du règlement intérieur. En filigrane, son départ et celui d’une partie de l’équipe Ethique IA illustrent la forte tension au sein de l’industrie Tech pour accepter de réguler ou d’afficher les limites et biais de l’intelligence artificielle.

L’épisode apparaît sûrement comme un sujet futile et réservé aux initiés. En réalité, c’est un débat de démocratie et de sciences de gestion/management de la même ampleur que les OGM pour la santé publique. Dans le monde du travail, ce débat s’appelle  le passage au management algorithmique.


Le management algorithmique s’appuie sur les neurosciences pour influencer l’activité du collaborateur et remplace le commandement hiérarchique classique


A l’origine, en 2015, le management algorithmique définissait seulement la relation de subordination effective d'un collaborateur humain à un programme informatique, quand bien même ce programme est présenté comme une simple "interface commerciale" pour les plateformes de service ou un chatbot sur un intranet. Dans ce cas d'usage, il y a contournement plus ou moins délibéré d'une relation/injonction hiérarchique. nous ne reviendrons pas sur les feuilletons de la décennie écoulée et les déclarations souvent  cyniques de Uber ou Deliveroo concernant leurs “utilisateurs”. Nous parlons de management algorithmique dès lors que le programme donne des instructions pour exécuter des tâches à suivre conduisant à une rémunération ou une sanction, en fonction de l'atteinte des objectifs assignés. C'est la transcription de la subordination telle que redéfinie par la Cour de Cassation en 1996.

La puissance de cette subordination repose sur :

  • un large usage des données et une surveillance permanente des travailleurs au travers des technologies
  • … qui conduit à une adaptation presque temps réel des décisions managériales sur la base de ces data...
  • … grâce à des processus de prise de décision semi-automatisée…
  • .. qui alimentent autant qu’ils s’appuient sur des systèmes de notation individualisée pour accélérer les instructions transmises  aux travailleurs….
  • … instructions qui utilisent les sciences cognitives pour influencer les travailleurs plutôt que de leur donner des injonctions managériales directes


Le management algorithmique s’est indirectement propagé à de nombreuses entreprises


Il y a désormais besoin d’identifier un autre cas d'usage assez différent.  On peut parler de management algorithmique  pour définir plus généralement une relation avec un manager humain qui s'appuie de manière directe ou indirecte sur des algorithmes à base statistique ou prédictive pour donner des instructions ou évaluer le travail de son subordonné. Par rapport à l'analyse scientifique du travail, qui a conduit à des pratiques managériales comme le lean management, le management algorithmique ajoute à la fois des éléments d'évaluation comportementale répétée voire continue, au travers des traces numériques du collaborateur, mais aussi des arbitrages d'interprétation légale ou culturelle qui ont été programmés à l'intérieur du code des algorithmes, sans que les utilisateurs aient accès à ce paramétrage. Le management algorithmique via l'intelligence artificielle en est un sous-ensemble. La notion d'intelligence artificielle étant la plupart du temps impropre et trompeuse, notamment quand elle introduit la confusion entre corrélation et décision (il manque notamment l’idée de discernement), la confusion entre algorithme et objectivité (alors qu'on veut dire une décision sans affect humain).

Dans ce second cas d'usage, les acteurs de l'entreprise peuvent de bonne foi ignorer totalement qu'ils subissent un management algorithmique "importé" au travers d'un "enabler"  technologique de projet de transformation (un logiciel déployé lors d’une transformation métier).

Si le management algorithmique a une connotation négative, ayons également à l’esprit que les algorithmes permettent un management augmenté et qu'ils sont un des ressorts des nouvelles manières d’organiser le travail sans hiérarchie formelle. Il y a donc un enjeu de régulation sans éradiquer la recherche de nouvelles configurations collectives. Plusieurs propositions sont déjà proposées pour réguler le management algorithmique, ici par exemple En voici quelques-unes que Guildeur recommande classiquement : 


  1. Audit algorithmique pour identifier d’éventuels biais d’analyse ou de recommandation algorithmique. Cet audit renvoie au sujet récurrent de l’explicabilité de la décision algorithmique
  2. Conformité DPO pour arbitrer les données disponibles auprès de chacun et les traitements réalisés sur des données concernant les salariés? Il s'agit en particulier de définir et d’organiser le droit à l'oubli dans le contexte algorithmique au sein d’une entreprise qui conservait les données et interprétations sur ses employés, même au-delà de leur départ avant la contrainte de la RGPD.
  3. Extension de Base de Données Economique & Sociale pour apporter des données algorithmes au dialogue social qui permettront d'améliorer les diagnostics ou de faciliter des simulations en phase de négociation
  4. Mise en place d’un indicateur du nombre d'heures hebdomadaire d'activité  (plutôt que de présence) enregistrée dans chaque trace digitale : faire la transparence sur l'étendue de la surveillance digitale mais aussi reconnaître la part non-digitalisée de l'activité du salarié pour ne pas réduire son évaluation individuelle à ce qui est enregistré (activités intellectuelles comme la réflexion, la prise de recul, l’organisation individuelle & collective du travail à faire, la priorisation des activités, le savoir-faire ou tour de main). Pour mémoire, la moitié de l'impact économique (coût ou économie) de l'activité d'un salarié n'est pas enregistrée dans la comptabilité de l'entreprise. C’est une activité historiquement invisible dans la prise de décision et dont on a pu toucher l’absence durant les confinements pendant lesquels cette activité a été réduite (voir L.Cappeletti CNAM)
  5. Rétro ingénierie algorithmique : auditer les résultats obtenus en utilisant une IA en mode contraire (par exemple en mode GAN) pour identifier les autres solutions qui étaient possibles (mais statistiquement moins probables) ou les autres situations où la même solution est utilisée (biais cognitif de la culture de l'entreprise par exemple). l'idée est d'éviter les effets notamment de type lit de Procuste.
  6. Identification du partage de la valeur générée : la mise en place du management algorithmique est un acte de gestion qui s’appuie sur une rationalité de Retour sur Investissement économique. Le partage de ce calcul permet d’en examiner l’exactitude (quelles externalités ignorées?) et à qui ce ROI procure-t-il un dividende.

Quels itinéraires de progrès social rendus possibles par le management algorithmique et que manque-t-il?

Au moins trois grandes directions d'avancée sociale au travail se dessinent :

  • L'allongement des carrières en soutenant les périodes de moindre productivité économique
  • La génération de communs numériques pour faciliter le partage de connaissances sur les indicateurs sociaux, sur quelques bonnes pratiques
  • Les organisations sans hiérarchie, utilisées comme facteur d'émancipation professionnelle


L'allongement des carrières aux périodes de moindre productivité économique.

On voit comment le management algorithmique des plateformes permet à des jeunes inexpérimentés de rivaliser avec une compagnie de taxi ou de livraison. 

En revanche, ces systèmes dits intelligents profitent surtout à “celles et ceux qui ne savent pas”  grâce à des connaissances d’experts compilées, extrapolées dans un algorithme lui-même “éduqué”. Pour les seniors expérimentés qui ont besoin de gains de productivité ou doivent commencer par désapprendre un geste professionnel pour apprendre un autre geste au travers d’une pédagogie pour adultes, le management algorithmique est encore peu satisfaisant.

La génération de communs numériques pour faciliter le partage de connaissances sur les indicateurs sociaux, de bonnes pratiques.

il y a un paradoxe entre d’une part la gloutonnerie de données dont les business analysts et décideurs nourrissent les processus de décision, une gloutonnerie qui est en train de de toucher les processus de décision RH, et d’autre part le classicisme des négociations sociales qui n’utilisent que très peu de simulations (paritaires). A l’heure où l’analyse sociodémographique et intentionniste a été balayée (à tort) par l’analyse comportementale de la Tech, les données nationales de référence restent issues de processus statistiques surannés et peu d’Opendata consolident des données d’entreprise.

Les organisations sans hiérarchie, utilisées comme facteur d'émancipation professionnelle. Que ce soient au travers des organisations décentralisées de type DAO ou pair-à-pair ou des nouveaux processus de décision collective proposés par exemple par le mouvement RadicalExchange, les outils numériques collaboratifs permettent une révolution dans l’organisation des collectifs humains comme l’évoque Yuval Harari dans Homo Deus. La possibilité d’organisations de travail sans hiérarchie ou peu hiérarchiques renvoie certes à l’aspiration (souvent déçue) d’aller vers des entreprises “libérées”, mais nous faisons surtout référence aux collaborations épisodiques ou de circonstances pour lesquelles des outils de management algorithmique apportent une facilité accrue en baissant fortement les coûts de transactions ou les coûts de défiance.

Christophe Gauthier

Co-fondateur Guildeur