Maison  >  Article  >  Périphériques technologiques  >  Praticiens RH : le recours aux « licenciements algorithmiques » peut apaiser la culpabilité

Praticiens RH : le recours aux « licenciements algorithmiques » peut apaiser la culpabilité

WBOY
WBOYavant
2023-04-17 09:58:021012parcourir

Praticiens RH : le recours aux « licenciements algorithmiques » peut apaiser la culpabilité

News le 21 février, quelques jours après ​Google​​​licenciements​à grande échelle​​​12 000 personnes, des centaines d'employés démissionnaires ont afflué dans un salon de discussion en ligne pour leur exprimer leur gratitude Une façon froide d'exprimer son mécontentement suite à un licenciement soudain, tout en échangeant des points de vue sur la manière dont la direction a décidé de procéder à des licenciements. Quelqu'un a posté une question : existe-t-il un « algorithme sans cervelle » bien conçu qui ne viole aucune loi et choisit qui doit être licencié ? Google a répondu que sa décision de licencier des employés "n'avait aucun algorithme impliqué". Mais alors que de plus en plus d’outils​

​IA​

​sont utilisés sur le lieu de travail, les soupçons de ces employés de Google licenciés semblent infondés. Aujourd'hui, de nombreux​​responsables RH​​utilisent des logiciels d'apprentissage automatique pour analyser des millions de données liées à l'emploi afin de formuler des recommandations sur les personnes qui devraient passer un entretien, recevoir une offre, être promues ou être retenues. Mais à mesure que la fortune de la Silicon Valley change, ces outils d’IA pourraient aider à accomplir la tâche plus difficile de décider qui sera licencié, selon les analystes RH et les experts en main-d’œuvre.

En janvier de cette année, une enquête menée auprès de 300 directeurs des ressources humaines d'entreprises américaines a montré que 98 % d'entre eux pensaient que les logiciels et les algorithmes les aideraient à prendre des décisions de licenciement cette année. Alors que les entreprises licencient massivement du personnel, il sera difficile pour les humains d’accomplir seuls une tâche aussi complexe. Les licenciements dans les grandes entreprises américaines ont atteint cinq chiffres depuis le début de l’année.

Joseph Fuller, professeur à la Harvard Business School, a déclaré que les grandes entreprises, des géants de la technologie aux entreprises d'articles ménagers, utilisent souvent des logiciels d'IA pour trouver « les bonnes personnes » pour les « bons projets ». Ces produits aident à constituer un « inventaire des compétences », une puissante base de données d'employés qui aide les gestionnaires à déterminer le type d'expérience, de certifications et de compétences qu'un candidat possède pour différents postes. De la même manière, ces outils peuvent également faciliter les licenciements.

Brian Westfall, analyste RH principal sur le site d'évaluation de logiciels Capterra, a déclaré que les services RH sont devenus « de plus en plus dépendants des données » depuis la récession de 2008. Il a ajouté que le recours aux algorithmes pourrait aider les managers à apaiser leur culpabilité lorsqu’ils prennent des décisions difficiles comme des licenciements.

De nombreuses entreprises utilisent des logiciels qui analysent les données sur les performances des employés. Dans l'enquête de Capterra, 70 % des responsables des ressources humaines ont déclaré que la performance est le facteur d'évaluation le plus important lors de l'évaluation des licenciements. Westfall a également déclaré que d’autres mesures utilisées pour les suppressions d’emplois pourraient être moins claires. Par exemple, les algorithmes RH peuvent calculer quels facteurs font d'une personne un « risque de changement d'emploi » et une plus grande probabilité de quitter l'entreprise.

Westfall affirme que l’intervention de l’IA a également causé de nombreux problèmes. Par exemple, si une entreprise connaît des problèmes de discrimination, les employés de couleur peuvent partir à un taux plus élevé. Mais si l’algorithme n’est pas formé de la même manière et ne comprend pas la situation, il pourrait décider que les employés non blancs présentent un « risque de fuite » plus élevé et recommander que davantage d’employés de couleur soient licenciés. "Dans une certaine mesure, vous pouvez constater un effet boule de neige. Vous ne savez pas comment les données ont été créées ni comment elles ont été affectées, et tout d'un coup, ces facteurs conduisent à de mauvaises décisions", a déclaré Westfall.

Jeff Schwartz, vice-président de Gloat, une société de logiciels de ressources humaines qui utilise des outils d'IA, a déclaré que les clients de Gloat n'utilisent pas le logiciel de l'entreprise pour créer des listes de licenciements. Mais il a reconnu que les responsables RH doivent faire preuve de transparence sur la manière dont ces décisions sont prises, y compris sur l’ampleur de l’utilisation des algorithmes. Il a déclaré : "C'est un moment d'apprentissage pour nous, nous devons percer les secrets de la boîte noire. Nous devons comprendre quels algorithmes fonctionnent de quelle manière, et nous devons comprendre comment les personnes et les algorithmes travaillent ensemble

."

Le recours aux logiciels a alimenté un débat sur le rôle que les algorithmes devraient jouer dans les licenciements et sur la mesure dans laquelle les employeurs devraient divulguer les raisons des licenciements, disent les experts du travail. "Le risque est d'utiliser des données erronées et de prendre des décisions basées sur ce que dit l'algorithme, puis de le suivre aveuglément", a déclaré Westfall, avocat spécialisé en droit du travail et de l'emploi et membre de Disrupt HR, une organisation qui suit les progrès dans le domaine des ressources humaines. , a déclaré Zack Bombatch, a déclaré que les organisations RH ont été débordées depuis le début de l'épidémie et qu'elles continueront à utiliser des logiciels pour aider à réduire les charges de travail.

Dans cette optique, lorsque les entreprises prennent des décisions de licenciement, elles ne devraient pas laisser les algorithmes établir des listes individuelles, mais avoir besoin que les humains examinent leurs recommandations pour s'assurer qu'il n'y a pas de préjugés à l'encontre des personnes de couleur, des femmes ou des employés plus âgés, tous ce qui peut donner lieu à des litiges. Bombage a prévenu : "N'essayez pas de rejeter toute la faute sur le logiciel." (Xiao Xiao)

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer