Gestión de Personas y Machine Learning

Todo va muy rápido y es imposible que estemos preparados para lo que viene, pero ya está ahí. Tus datos, los míos, los de todos, tienen más valor que el petroleo y llevamos una década alimentando bases de datos, dentro y fuera de nuestra Organización. Sólo es cuestión de tiempo que los procesos de Gestión de Personas estén total y absolutamente automatizados.

¿Pero qué ocurriría si esos procesos automatizados se equivocaran? Es un tema muy sensible que puede generar una crisis de reputación y si no, lean el artículo publicado en el portal de finanzas Bloomberg sobre lo que le pasó a Amazon.

La situación que detalla el artículo Amazon’s Heavily Automated HR Leaves Workers in Sick-Leave Limbo es frustrante para los empleados – sin mencionar el impacto en sus empleos – pero también para recursos humanos. Comentarios del tipo “Las historias de terror ocurren porque la gente [de RR.HH.] está abrumada. Y no tienen los recursos ni la capacidad mental para tratar con [los trabajadores] porque se ven atraídos en muchas direcciones diferentes. Es probable que tenga impactos humanos negativos en la vida real “, no dejan en buen lugar a una función que debe estar centrada en las Personas.

Este enfoque en las Personas debería obligar a todas las organizaciones a validar y testear de forma sistemática todos los procesos automatizados de Recursos Humanos para evitar errores que impacten en la motivación. Una buena forma de hacerlo es añadir a estos robots de sofware sistemas de inteligencia artificial de forma que pudieran reaccionar de forma inteligente, aprendiendo de las distintas situaciones del entorno, pero aún así, habría posibilidad de error durante el proceso de aprendizaje.

Mientras que la automatización de procesos, lo antes llamado robots de software o simplemente RPA, no deja de ser un sistema que automatiza un flujo de trabajo, la inteligencia artificial va más allá, aplicando reglas que permiten automatizar la inteligencia de los seres humanos.

La Inteligencia Artificial permite construir modelos matemáticos de Machine Learning, Deep Learning y Redes neuronales, por poner algunos casos conocidos. Estos modelos se construyen mediante reglas que generan más reglas a partir de los datos que entran en el sistema. Estas nuevas reglas que genera el sistema de Aprendizaje deben ser validadas antes de incorporarse al conjunto de reglas, pero aún así hay posibilidades de error.

Hace muy poco el algoritmo de reconocimiento de imágenes de Twitter cometió un error de reconocimiento que se categorizó como racista. La disculpa publicada en The Guardian bajo el título Twitter apologises for ‘racist’ image-cropping algorithm no impidió el daño en la reputación, solo lo limitó, abriendo muchos debates.

Imagínese un error así en su organización. Imagine que el Algoritmo de recursos humanos para seleccionar “decidiera” discriminar a los hombres de ojos azules, a las mujeres de San Sebastián, o a los Ingenieros graduados en la Universidad de Cádiz.

Salvo casos tan públicos y notorios como Twitter en el que fueron los usuarios quienes descubrieron el error mediante una mezcla de casualidad, ensayo y error, la falta de transparencia en la mayoría de los algoritmos nos arroja dudas de cómo se comportará ante la cantidad de datos que maneja y las distintas formas de agrupar esos datos.

Un articulo de Hein de Hann, publicado en el Magazine de Inteligencia Artificial Becoming Human, titulado The Unfortunate Power of Deep Learning detalla algunos de los retos que debemos que superar al tiempo que vemos esta tecnología crecer y crecer, sin que sepamos muchas veces lo que la maquina está aprendiendo.

Así, conforme el sistema aprende y crece el número de reglas que aplica, y en la complejidad de las mismas, debemos asegurarnos que las decisiones que toma el sistema son correctas, pero además, si son éticas y ajustadas a la realidad social.

Sabemos que la revolución de la plataformas de gestión de personas no vendrá de la tecnología – que ya existe – sino de la calidad del dato. Cuanto mejores datos suministremos al sistema, junto con una mejor supervisión en la aprobación de las nuevas reglas, más preciso será el algoritmo.

Hace bien poco escuchaba de manos de expertos que los departamentos de Gestión de Personas aún estaban lejos de implementar la automatización de sus procesos mediante RPAs. Esta falta de experiencia unido a la sensación de urgencia que trae la transformación digital empujará a Recursos Humanos a dar el paso que les lleve de No tener nada a querer tenerlo todo. Un salto demasiado grande para la función.

Todo esto me lleva a una última pregunta. Si la gestión de personas tiene que dar este monumental salto, sin experiencia, sin conocer como funciona un algoritmo, sin saber leer lineas de código ¿Los departamentos de Recursos Humanos o de Gestión de Personas estarían preparados para reconocer si el algoritmo de su plataforma de selección discrimina?

Que buena pregunta Dorothy… pero como decía al principio de esta entrada, todo va muy rápido y es imposible que estemos preparados para lo que viene, pero ya está ahí, así que disfrutemos, que vienen olas.