Kiosko La Opinión de Zamora

La Opinión de Zamora

Carlos Emilio García Martín | Director de Inspección de Trabajo en el País Vasco

“Si la Inspección usa inteligencia artificial para sancionar, se debe legislar para facilitar el recurso”

“La insuficiencia normativa en relación con la digitalización del trabajo puede propiciar situaciones de explotación”

Carlos Emilio García Martín durante su ponencia en el Congreso celebrado en Zamora. ANA BURRIEZA

Legislar y controlar van de la mano para dominar la inteligencia artificial que invade la realidad cotidiana y, por ende, la laboral cada vez más digitalizada y deslocalizada, una tecnología sofisticada que decide ya por el empresario sobre contrataciones, despidos, la relación con sus empleados. Esa es la receta del director de Inspección de Trabajo y Seguridad Social en el País Vasco, Carlos Emilio García Martín. La Inspección de Trabajo requiere el apoyo de expertos en ingeniería, en matemáticas para poder afrontar ese gran reto.

El director territorial de la Inspección de Trabajo y Seguridad Social del País Vasco, durante el coloquio. | Emilio Fraile Susana Arizaga

–¿La digitalización laboral, los algoritmos que “premian”, reparten dividendos o penalizan a los trabajadores, facilitan una mayor explotación laboral?

–Las nuevas tecnologías pueden usarse para lo bueno y para lo malo, como demuestra la historia, en sí mismas no son malas, generan posibilidades de progreso a los humanos y al mundo del trabajo, pero se puede utilizar, por supuesto, para explotar, efectivamente, o para restringir derechos o para hacer que, de alguna manera, la fiscalización de los representantes de los trabajadores sea más difícil. No es que se usen directamente para eso, se utilizan para ganar dinero, las empresas se crean para eso, no nos engañemos. Pero ocurre que las tecnologías se aplican sin plantearse los problemas adicionales que pueden acarrear desde el punto de vista jurídico y, si se ven, se orillan.

–En el Congreso “Inspección frente a la revolución 4.0” de la UPIT, celebrado en Zamora, debatieron sobre si es posible evaluar los efectos perniciosos de la tecnología en el ámbito laboral a priori o si hay que esperar a que se produzcan para evaluar e intervenir, ¿qué opina usted?

–Dado que los seres humanos tenemos una capacidad de raciocinio tan intensa como para generar inteligencia artificial, tenemos que ser capaces también, en la medida de lo posible, de evaluar a priori cuáles pueden ser los efectos, hay que intentarlo, y se pueden hacer muchas cosas. Sucede también que, en el ámbito de la protección de datos, tienes que evaluar a priori posibles efectos negativos, igual no detectas todos, no va a ser posible, pero sí muchos. Después la experiencia te va a dar el feedback de otros posibles.

"Internet ha creado sus mecanismos de opacidad, por eso la inspección de las empresas para comprobar que no contravienen la Ley es más completa"

decoration

–¿Cómo deben actuar las empresas para sortear los efectos negativos en los derechos de los trabajadores?

–No tiene sentido dejarnos llevar solo por el big data y deglutir todos los datos sin ningún filtro. Es necesario configurar equipos humanos multidisciplinares que gestionen esos datos, cuanto más multidisciplinar, más plural, sea la composición del equipo, que haya hombres y mujeres, personas de distinto origen cultural, racial, será más fácil, a priori, evitar sesgos culturales, de género... Hay que hacer ensayos antes de lanzar al mercado una aplicación, antes de usarla en el ámbito empresarial, eso evitará muchos efectos perniciosos. Una vez que se lanza, hay que realizar evaluaciones periódicas. Eso deben hacerlo las empresas y cualquier operador que vaya a usar las redes y programas de inteligencia artificial, los diseñadores y fabricantes de programas informáticos, y las empresas como usuarias.

–¿Necesita la Inspección programas que sirvan para analizar los que usan las empresas?

–Tenemos que tener la capacidad técnica de detectar si se han aplicado esas medidas que deben ser también legisladas y no solo a nivel laboral. En Europa, todo se ha dejado, un poco, en manos de las normas de protección de datos y no es solo cuestión de eso. Europa alcanzó un acuerdo en abril para articular una ley de servicios digitales, en la que se exigirá a los grandes operadores digitales que abran en canal su algoritmos, la transparencia algorítimica. Incluso, cuando las administraciones públicas usan algoritmos se está proponiendo que haya un registro público, es decir, si usamos inteligencia artificial para sancionar, que la ciudadanía pueda tener acceso al por qué se toman esas decisiones automatizadas para poder recurrir. Eso es lo que hay que legislar.

–¿Entonces, existe un vacío legal absoluto?

–Tampoco absoluto, pero la normativa que tenemos, los instrumentos son insuficientes, no solo como Inspección de Trabajo, hablo en general, para que la sociedad, las administraciones públicas y los operadores privados tengamos claros los límites legales en los que nos tenemos que mover.

–¿Esa normativa insuficiente está sirviendo de coladero para que las empresas hagan de su capa un sayo?

–La generalización siempre es odiosa, ¿eh? Ocurre que la insuficiencia normativa propicia situaciones o bien abusivas o bien ambiguas, y la ambigüedad siempre perjudica al trabajador generalmente, porque es la parte más débil de la relación laboral o la que tiene una mayor desventaja, en principio. El que no haya unos instrumentos jurídicos, sí, propicia que pueda haber situaciones de explotación o, por lo menos, de una insatisfacción en el desarrollo de la relación laboral.

"Las leyes deben poner coto a las consecuencias de la digitalización sobre los derechos del trabajador"

decoration

–La robótica empieza a asustar: la llegada de robots para sustituir a cuidadores, a camareros…, podrán copar muchos puestos de trabajo. ¿La legislación podrá para ponerle coto a un avance tecnológico tan desbocado?

–El derecho, como mucho, puede ir un paso por detrás, pero tenemos que mantener el pulso y el ritmo, y eso es posible. No hay muchas sentencias por ahora en materia de inteligencia artificial, por ejemplo, como es lógico, pero empieza a haberlas y cada vez más. Tecnología y ciencia van a ir siempre por delante de la legislación, siempre ha sido así en la historia y mucho más ahora con la capacidad que tenemos de procesamiento de datos, de desarrollo de componentes, con la capacidad industrial. Pero el derecho lo que no puede es perder el ritmo, los tribunales, las leyes, los operadores jurídicos, los organismos de control tenemos que estar permanentemente atentos a lo que está ocurriendo para tratar de poner, no coto al desarrollo tecnológico y científico, que eso no tiene ningún sentido, sino a las consecuencias, a veces, inesperadas; a veces, indeseadas o, a veces, propiciadas deliberadamente que son negativas para los derechos de la ciudadanía en general, no solo para los trabajadores. A veces, a aquellas consecuencias que lo que hacen es diluir responsabilidades.

–¿Legislar para clarificar responsabilidades también?

–Sí, porque no saber muy bien quién tiene que responsabilizarse de algo es un problema para la sociedad, para una sociedad que funcione y que sea cohesionada. Es necesario que también las responsabilidades de cada persona, de cada organización, de cada sujeto estén claras.

–¿Los ciudadanos pueden estar seguros de que no habrá desprotección legal frente a la “colonización” de la vida laboral y cotidiana por la robótica?

–Los conceptos tradicionales del derecho están cambiando radicalmente, pero eso no significa que no vaya a haber derecho, normativa, elementos jurídicos, hay que renovarlos, como ha ocurrido en otras etapas de la historia, como ocurrió en la primera revolución industrial, cuando pasamos de una sociedad de gremios a una industrial de trabajo. Eso genera crisis, un cambio, a veces, demasiado rápido, incertidumbres, pero, al final, el ser humano es capaz de dotarse de los instrumentos normativos necesarios.

"Las empresas deben tener equipos multidisciplinares y plurales para analizar los datos y evitar sesgos de género, culturales..."

decoration

–¿Cree que las máquinas no nos van a dominar?

–Solo nos dominará si nos dejamos dominar, pero creo que no, detrás de las máquinas están siempre los seres humanos.

–Y su perversión.

–Pero, en el fondo, nos estamos dejando dominar por un triste móvil, y lo estamos haciendo voluntariamente. Necesitamos también educación tecnológica, las generaciones jóvenes, sobre todo, que, paradójicamente, son las más familiarizadas con la tecnología y las más esclavas de ella.

–La evolución de la tecnología, de la digitalización, va a tal velocidad que dificulta la labor de la Inspección de Trabajo, cuyos medios no son los adecuados, denuncian sus colegas.

–La Inspección tiene medios tecnológicos y cada vez más potentes, de hecho, la inteligencia artificial ya se está utilizando para programar actuaciones, analizar grandes volúmenes de datos de los que se pueden deducir posibles fraudes. Empezamos a tener buenos medios para hacer análisis de información, pero necesitamos dar el salto hacia la posibilidad de inspeccionar, fiscalizar el uso que hacen las empresas de la tecnología que afecta a los trabajadores, los algoritmos, programas de inteligencia artificial, que hoy están ya tomando las decisiones que antes adoptaba el empresario como ser humano.

–¿En qué tipo de decisiones empresariales intervienen esos algoritmos?

–Se están usando en los procesos de selección de personal, en la fase previa de la relación laboral; durante la relación laboral para establecer condiciones de trabajo, por ejemplo, en qué horarios son mejores, el rendimiento, la evaluación del desempeño… Y, en la fase final, la de extinción de la relación laboral, están decidiendo a quién despedir tanto en los despidos colectivos como en los individuales. No es ilegal, pero, como todas las herramientas que se usan en el ámbito empresarial, tienen que ser objeto de fiscalización y de análisis para determinar si se están usando con arreglo a la Ley o no.

"Las máquinas nos dominarán si nos dejamos, pero no creo porque detrás de ellas siempre hay un ser humano"

decoration

–En esa tarea, es imprescindible incorporar a la Inspección profesionales especializados en informática. El colectivo denuncia que continúa con herramientas del siglo XX.

–Es el salto que tenemos que dar como Inspección hacia el siglo XXI para realizar esa labor inspectora. Necesitamos herramientas y, sobre todo, asesoramiento, incorporar a la Inspección más ingeniería, más matemáticas, más recursos humanos y materiales capaces de analizar los algoritmos, las fórmulas, los desarrollos, para eso los jurídicos no tenemos por qué saber, pero hay profesionales que saben de ello y pueden ayudarnos para desentrañar por qué, realmente, los algoritmos toman determinadas decisiones, que no siempre es fácil, y si estas se ajustan a la Ley o no, si son discriminatorias o no. Para eso sí necesitamos dar el salto hacia un mayor aporto técnico, no solo tecnológico, de profesionales técnicos que nos complementen la labor inspectora.

–¿Cuál es la mayor dificultad que encuentra un inspector de Trabajo para fiscalizar la actividad de plataformas digitales?

–Son un fenómeno muy diverso, amplio y complejo, cada una es diferente porque ya llevan muchos años aplicándose a distintos tipos de trabajo, hay gente repartida por todo el mundo realizando sus trabajos cualificados para aplicarlos en otro país completamente diferente, hay una deslocalización de personas y de tareas absoluta, y es de difícil control. Ocurre que el trabajo de plataformas tienen muchas dificultades por la complejidad, primero, por la internacionalización. No es solo un problema de la Inspección de Trabajo en España e internacional. Cuando digo problema me refiero a si se están haciendo bien las cosas conforme a las leyes sociolaborales. Es muy difícil hacer un control internacional.

"La Inspección ya usa inteligencia artificial para analizar datos, pero necesitamos ingenieros, matemáticos, para fiscalizar si los algoritmos que hoy toman decisiones por el empresario lo hacen con arreglo a la Ley"

decoration

–Esa dificultad para ir y ver, ¿cómo repercute en la comprobación de si el funcionamiento de la empresa digitalizada se ajusta la Ley?

–El funcionamiento y la regulación interna del trabajo que hace la plataforma, cómo lo distribuye, cómo premia o castiga a los empleados en función de las horas de trabajo que aceptan o no es la labor que se está haciendo, analizar porqué se adoptan esas decisiones y si son o no conforme a derecho. Para analizar los efectos, los inspectores estamos perfectamente capacitados porque es igual al que se efectúa en cualquier otro tipo de trabajo, pero estamos en una fase en la que no basta con ver los efectos, con analizar qué está pasando con la relación laboral, es que hay que analizar de dónde viene, porque, a veces, los efectos pueden ser engañosos.

–¿Y a nivel más local surgen otras dificultades?

–En el español e, incluso, europeo, hay problemas añadidos que se apuntaron en el Congreso, como el hecho de que no haya centros de trabajo estables. Hasta ahora la inspección, tradicionalmente, se hacen en lugares físicos, a los que se puede ir y ver, la función básica del inspector, pero ahora ver ya no es ir físicamente a un lugar, es la de “encender” un ordenador, introducirte en la red y ver qué hay ahí, porque el trabajo se está produciendo ahí y las decisiones se están tomando ahí, en Internet. Eso tiene su complejidad, ya que los medios tecnológicos, las redes nos permiten ver y llegar a muchos sitios a los que antes no podíamos llegar. Internet nos puede ayudar a localizar personas, actividades, posibles fraudes que antes era imposible detectar, pero también conlleva que la inspección sea más compleja porque Internet ha creado sus propios mecanismos para generar opacidad, el Internet profundo, todo ese tipo de cosas.

"Hay gente repartida por el mundo realizando tareas cualificadas para aplicarlas en otro país distinto, esa deslocalización del trabajo implica una gran dificultad de control para ver si las cosas se están haciendo de acuerdo a la legalidad"

decoration

–¿Imprescindible más apoyo tecnológico, entonces?

–Para esa interpretación del mundo tecnológico sí necesitamos más apoyo de profesionales especializados en redes. Aparentemente, puede no ser discriminatoria una práctica, puede ser neutral, sin embargo, profundizando en por qué se ha decidido determinada manera de reparto del trabajo o de aplicar una penalización, en el corazón del algoritmo utilizado se puede ver si es legal o no.

Compartir el artículo

stats