Cuando el Big Data es machista (y te discrimina en tu puesto de trabajo)

  • Adrián Todolí, investigador de la Universidad de Valencia (UV), alerta de los riesgos de discriminación que podrían conllevar la aplicación estricta del análisis de datos.

0

Imagine un programa que tuviera que dibujar al consejero perfecto basándose en los datos de algunas de las empresas españolas que más facturan, como las del Ibex 35. El perfil ideal sería un hombre y el programa desaconsejaría escoger a una mujer, bajo la evidencia de que de los 438 personas que forman estos órganos, solo 102 (un 23,3%) son mujeres. Con este ejemplo práctico se explica la tesis que el profesor Adrián Todolí, investigador de la Universidad de Valencia (UV), ha plasmado en un artículo publicado en la Revista de Derecho Social, en el que alerta de los riesgos de discriminación que podrían conllevar la aplicación estricta del análisis de datos y los algoritmos al mundo del trabajo: “Si la realidad está sesgada, el Big Data también sacará conclusiones sesgadas”.

El análisis de datos para la toma de decisiones empresariales ya es un hecho, pero solo cuando sus consecuencias se hacen visibles llega a la legislación y a las escuelas de negocios en las que los jóvenes aprenden cómo gestionar un proyecto. “Es habitual utilizar los datos que se van recopilando con sistemas automatizados”, explica Todolí, que también es codirector de la  Cátedra de Economía Colaborativa y Transformación Digital y tiene un blog sobre Derecho Laboral. En sus publicaciones analiza cómo las nuevas herramientas aterrizan en las empresas: “Se están utilizando para todo, desde un despido hasta conceder un bonus. Generalmente, para los ascensos se utiliza menos porque son más complejos”.

 “Hay sistemas automatizados para recoger datos a través del algoritmo, a partir de los que se crea un perfil de trabajador”, explica el experto. Los datos que se publican en internet o en las redes sociales también pueden ser material de trabajo para los responsables de recursos humanos de las compañías.  Es legal siempre que “la fuente sea de acceso público”, aunque pocas veces los candidatos llegan a saber el motivo por el que no han sido contratados. Simplemente, no les llaman.

Publicidad

Aunque la recopilación sea legal, no lo es descartar a un trabajador por su “orientación sexual o política”, por poner dos ejemplos. Sin embargo, si el trabajador tiene alguna sospecha de que ha sido así, tiene que demostrarlo en los tribunales, algo que no siempre es fácil, como reconoce el experto.

Evaluar al trabajador con una app

Para que los datos frío no repliquen las desigualdades, los expertos recomiendan también perfiles capaces de interpretarlos. Ahí es donde las Humanidades, pilar de la conciencia crítica, pueden jugar un papel fundamental, poniendo los datos en manos de sociólogos o de filósofos que les den contexto, sentido y empaque ético a los avances que proporcionan las tecnologías.

Los ciudadanos se escandalizan al ver el último capítulo de la serie distópica Black Mirror, mientras aceptan con naturalidad evaluar mediante una aplicación el servicio de un repartidor. Todolí alerta de que se está pasando por alto lo “realmente grave” que es que en el puesto de un trabajador influya la opinión de un cliente que no sabe cuáles son exactamente sus funciones: “No es lo mismo la opinión de un cliente que la de un encargado, que conoce todo tu trabajo”, explica sobre la necesidad de esa figura intermedia que conoce lo que rodea a ese repartidor, conductor o camarero.

En el campo puramente estadístico, las minorías y los matices pierden en favor de lo cuantitativo.  Por tanto, el codirector de la Cátedra de Economía Colaborativa también apunta a algunos estudios realizados en Estados Unidos que advierten de que los prejuicios sociales se reflejan también en las apps: “Hay estudios que muestran que a las personas de color se las exige más por el mismo trabajo”,explica

Hacia la gobernanza colectiva

También los sindicatos tienen una función relevante para que los entornos de trabajo no se conviertan en un foco de discriminación y semiesclavitud.  Todolí apunta a la “gobernanza colectiva”: “Lo primero que haría falta es que la ley diera fuerza a los sindicatos para que pudieran negociar lo relativo al tratamiento de datos en las empresas: cómo los utilizan, cómo influyen en el despido, en la contratación, etc.”. El profesor habla de poner los cimientos en la protección de los trabajadores en entornos digitales: legislar para proteger sus derechos.

La gobernanza tiene que ser colectiva porque no se puede exigir a cada trabajador que sea experto en el manejo de datos, un entorno muy complejo cuyos recovecos solo comprenden los especialistas. Gracias a la negociación colectiva se introducen nuevos derechos como la desconexión digital en el día a día de las empresas antes que en la legislación.

El Reglamento Europeo de Protección de Datos (GDPR) ha hecho que se avance en algunas protecciones a los ciudadanos con respecto a la huella que dejan, pero Todolí cree que es insuficiente: “Está pensado para proteger al consumidor y no específicamente al trabajador. Es necesario un desarrollo en el ámbito laboral”.

Leave A Reply

Your email address will not be published.