Productos

Productos

You will find the latest information about us on this page. Our company is constantly evolving and growing. We provide wide range of services. Our mission is to provide best solution that helps everyone. If you want to contact us, please fill the contact form on our website. We wish you a good day! You will find the latest information about us on this page. Our company is constantly evolving and growing. We provide wide range of services. Our mission is to provide best solution that helps everyone. If you want to c

You will find the latest information about us on this page. Our company is constantly evolving and growing. We provide wide range of services. Our mission is to provide best solution that helps everyone. If you want to contact us, please fill the contact form on our website. We wish you a good day! You will find the latest information about us on this page. Our company is constantly evolving and growing. We provide wide range of services. Our mission is to provide best solution that helps everyone. If you want to contact us, please fill the contact form on our w

- MANTENETE INFORMADO -

¿PODRÍAN LAS MÁQUINAS CONTRATAR Y DESPEDIR TRABAJADORES? INTELIGENCIA ARTIFICIAL, ALGORITMOS Y SMART CONTRACTS EN EL DERECHO DEL TRABAJO

 

Cintia Cristina Coturel

 

ABSTRACT

 

En el año 2018, en EEUU se produjo el despido de un trabajador por autodeterminación del sistema informático de una empresa, ante la omisión de la carga de datos del superior del trabajador. También se hizo pública la información de que, en 2014, Amazon desarrolló un sistema de Inteligencia Artificial para seleccionar candidatos a empleos, que luego de varios años de desarrollo demostró que no seleccionaba mujeres y rechazaba sistemáticamente los curriculums enviados por personas del género femenino.

 

En los casos de trabajadores de plataformas, el algoritmo de la plataforma determina la jornada de trabajo y los pedidos que son derivados a cada trabajador y hasta puede llegar a decidir la suspensión o el bloqueo definitivo (despido). Estas situaciones nos abren el interrogante sobre los problemas que puede generar la aplicación de la Inteligencia Artificial, algoritmos, smart contracts y el perfilamiento digital humano en el Derecho del Trabajo. Consideramos que existe un riesgo de incremento de la discriminación, de la reproducción de estructuras que impidan la movilidad social de las personas, ya que la vida está moldeada por algoritmos que deciden qué noticias leemos, con quiénes nos relacionamos, a qué trabajos accedemos, etc. 

 

El uso de la inteligencia artificial y los smart contracts puede traer otros problemas, que son la imposibilidad de detener la autoejecución del contrato. Por ello se recomienda la existencia de un botón de pánico, para que el trabajador pueda por ejemplo, acreditar que solicita una licencia por enfermedad. También existe un riesgo de despersonalización de las relaciones laborales y de programación de algoritmos en violación al orden público laboral. En Europa ya existe el “derecho a una explicación”, regulado en el artículo 22 del Reglamento General de Protección de Datos, que establece que toda persona tiene derecho a que una decisión final no sea tomada en forma automatizada. 

 

INTRODUCCIÓN

En el año 2018, Ibrahim Diallo se convirtió en la primera persona humana en ser despedida por una máquina. Este programador de software trabajaba en una empresa de Los Ángeles, EEUU, que utilizaba la automatización para determinar cuáles eran los trabajadores que continuaban en funciones. En caso de que “el Sistema” registrase que no se había cargado la renovación del contrato de determinada persona, se deshabilitaba su tarjeta de ingreso, se remitía un correo electrónico al personal de seguridad para impedir el acceso de esa persona, se bloqueaba su usuario en el software de la empresa, etc. (BBC News Mundo, 2018).

 

En el caso de Diallo, el Sistema se activó por un error humano, ya que su jefe  había sido destinado a realizar teletrabajo y no pudo ingresar su contrato en el software de la firma, por lo que se activó el proceso de desvinculación. Esta automatización era “irreversible”, de manera tal que ni aún los propios jefes de Diallo pudieron “frenar” al “Sistema”. Hasta recibieron un correo electrónico remitido automáticamente por el “Sistema”, en el que se les informaba que el trabajador había sido “desactivado exitosamente”.

 

 La solución llegó tres semanas después, cuando las personas humanas a cargo de la empresa contrataron a Diallo, como un trabajador nuevo. Como puede observarse, la ejecución de la desvinculación automática del contrato era “imparable”, aun cuando los propios seres humanos al mando de la organización no estuvieran de acuerdo.

 

En el otro extremo de la vara, encontramos el caso de Amazon, relacionado con la selección de personal. En el año 2014, esta empresa desarrolló un algoritmo para contratar empleados, basado en los perfiles de los trabajadores más exitosos que la compañía había tenido. Teniendo en cuenta que la mayoría de los empleados eran ingenieros hombres, el algoritmo llegó a la conclusión de que los mejores candidatos para acceder a un empleo debían pertenecer al género masculino y sistemáticamente, comenzó a rechazar los curriculums que contenían las palabras “mujer” o “capitana del equipo de mujeres”. Debido al escándalo público generado por esta máquina “machista”, Amazon decidió dar de baja esta metodología de selección de personal: el algoritmo reproducía los sesgos de género que ya se verificaban en la empresa (El Mundo, 2018)

 

Estos dos casos, que quizás nos parecen alejados de nuestra realidad, nos llevan a la pregunta, ¿qué pasaría si las máquinas pudieran contratar y despedir a los trabajadores?

 

NUESTRA VIDA ESTÁ MOLDEADA POR LOS ALGORITMOS

La realidad en la que vivimos los seres humanos, ha sufrido grandes transformaciones en las última dos décadas. El estilo de vida se ha modificado en el siglo XXI. Hoy vivimos atados a nuestros teléfonos móviles, con todo tipo de aplicaciones que nos conectan con el mundo y con otras personas. Cualquiera de nosotros revisa su celular, al menos, ciento cincuenta veces por día. Regalamos nuestros datos y metadatos a empresas que los comercializan y luego nos ofrecen una “experiencia”, en la que recibimos determinada información, también en nuestro teléfono móvil.

 

Para graficar esto, tanto en las redes sociales como Facebook, Instagram, etc, y en buscadores como Google y Youtube, nosotros hacemos click en determinadas publicidades, introducimos palabras en los motores de búsqueda, leemos ciertas noticias -y no otras- revisamos ciertos perfiles. Si tenemos nuestro geolocalizador activado, también se puede establecer en qué lugar estamos, a qué comercios ingresamos, etc. Toda esta información es recopilada por las empresas propietarias de las redes sociales, a las cuales cedemos gratuitamente nuestros datos y autorizamos la elaboración de “perfiles digitales”. También se recopilan “metadatos”, que son los que no fueron generados por el usuario, sino que surgen por ejemplo de la ubicación, número de IP del servidor, etc. 

Los datos son vendidos a otras empresas que pagan para que sus publicidades aparezcan selectivamente a determinados perfiles, tanto en Google, Youtube, Facebook, etc. 

 

El fenómeno de la “BIG DATA” refiere al conjunto de datos que están circulando en la red, que son recopilados por las empresas y procesados mediante la Inteligencia Artificial. En el siglo XX, para preservar la información de las personas, era necesaria la elaboración de legajos en papel, que eran archivados. Esta forma de almacenamiento, aún en los Estados totalitarios, no permitía un manejo veloz de la información, puesto que los archivos estaban clasificados bajo determinados criterios y, en caso de querer reorganizarlos, había que disponer de gran cantidad de tiempo y recursos humanos. La inteligencia artificial permite el tratamiento y clasificación de gran cantidad de datos, de una forma que nunca pudo ser concebida. Los datos no se encuentran en una base “estática”, sino que están “en la nube”, en servidores que pertenecen a empresas subcontratadas, en distintos países del mundo. Esto se denomina movimiento transfronterizo de datos. 

 

Según Corvalán (2020), nos encontramos ante un nuevo paradigma que consiste en “perfilar digitalmente a los seres humanos”, que puede tener beneficios para las personas y empresas, pero también representa graves riesgos de violaciones a los Derechos Humanos. Específicamente, cuando se toman decisiones basadas únicamente en tratamiento automatizado de datos, sin intervención humana. 

Los perfiles digitales son clasificados según algoritmos. Se agrupan, por ejemplo, los perfiles de personas que hicieron click en avisos de “vida sana”, “recetas de cocina”, “clubes de fútbol”, etc. A cada usuario, se le ofrece una “experiencia” al ingresar a las redes sociales, en virtud de la cual la información que aparece en la sección de noticias es determinada por esos algoritmos. Si dos personas distintas abren su cuenta de Facebook, no van a recibir las mismas noticias, ni la misma publicidad, ni las mismas “sugerencias de amistad”, etc.

 

 Las marcas pueden ofrecer su producto, en forma segmentada, sólo a determinados perfiles, clasificándolos por ejemplo, por riesgo crediticio asociado a su zona de residencia –lo que refleja un sesgo discriminatorio-. Un producto puede ser ofrecido con distintos precios a los diferentes perfiles, según el nivel de riesgo. 

 

 Con las noticias ocurre lo mismo: los algoritmos deciden qué noticias vemos, por lo tanto algunos recibirán información sobre la economía, otros sobre deportes, espectáculos, etc. Esto genera que cada persona viva enfrascada en una realidad moldeada para ella, en la cual quizás no acceda a información relevante que le permitiría una mejor toma de decisiones.  

Se ha verificado que las aplicaciones para búsqueda de pareja -como Tinder- poseen algoritmos que clasifican a los usuarios en lindos y feos, según la cantidad de “likes” que reciben. En razón de esos algoritmos, se les ofrecen perfiles de usuarios también clasificados como lindos o feos (Curia, 2020).

 

La información que se almacena en la BIG DATA puede trasvasar límites insospechados. Blanco (2020) señala que en EEUU ya existen bases de datos genéticas privadas on line, que tienen registrados entre 5 y 10 millones de clientes y a las que se puede acceder para conocer el árbol genealógico. Este autor afirma que el tratamiento automatizado de datos tiene implicancias en el ámbito penal, toda vez que puede servir para identificar a un sospechoso de un crimen, predecir las posibilidades de que determinada persona cometa un delito o que en determinada zona geográfica se produzcan delitos –por ejemplo asociando el índice de desalojos, se puede “predecir” que en esa zona habrá un incremento del delito-. En EEUU se utilizan algoritmos para la fijación del monto de la pena, en los que se toman en cuenta las posibilidades de reincidencia en el delito. Estos algoritmos son elaborados por empresas privadas, que procesan los datos comprados mediante la IA y luego venden el servicio a los Estados de la Confederación. 

 

Como podemos observar, el rápido avance de todas estas aplicaciones, tiene el potencial riesgo de profundizar las diferencias sociales y económicas de las personas. Un algoritmo decidirá qué noticias lee el usuario, qué productos puede comprar, con quiénes se relaciona, etc. También decidirá si esa persona tiene posibilidades de cometer un delito en el futuro, si es probable portador de enfermedades genéticas, etc.

 

¿CÓMO PODRÍAN LAS MÁQUINAS INTERVENIR EN EL CONTRATO DE TRABAJO?

 

Podemos plantear dos hipótesis de intervención de una “máquina”, robot o sistema, en el contrato de trabajo:

1- que actúe en cumplimiento de pautas preestablecidas por el programador;

2- que tome sus propias decisiones, en base a la Inteligencia Artificial y el machine learning. 

 

 En el primero de los casos, se programará al sistema para que, ante determinado presupuesto fáctico, se active una consecuencia específica. Este es el caso de los denominados “smart contracts” o contratos inteligentes. Estos son acuerdos de voluntades cuyas consecuencias se ejecutan sin intervención de seres humanos. Por ejemplo, en el caso de un contrato de seguro por cancelación de vuelo, ante la notificación automática del Aeropuerto a la compañía de seguros, ésta deposita el monto asegurado en la cuenta del tomador del seguro (Sobrino, 2020). 

 

En el ámbito laboral, podemos citar como ejemplo a los trabajadores de plataformas como Glovo, Rappi, etc. En caso de que el trabajador rechace expresamente o no responda a un pedido, la plataforma lo bloquea por un tiempo determinado –por ejemplo, una hora-. 

 

De acuerdo a las calificaciones de los consumidores y a la cantidad de pedidos cumplidos por cada trabajador, la plataforma, según los algoritmos preestablecidos, asigna las franjas horarias de cada repartidor y, dentro de las mismas, la prioridad para recibir pedidos.

 

Es decir que, en el caso de los trabajadores de plataformas, la empresa ejerce su poderes de dirección, organización y disciplinario, a través de algoritmos preestablecidos. Incluso en el caso del distracto, éste puede producirse por el bloqueo del trabajador en forma automática, cuando la aplicación registre que  rechazó una determinada cantidad de pedidos. 

 

El ejemplo citado de Ibrahim Diallo, se corresponde a esta categoría de Smart contract.

 

El segundo supuesto, en el cual se deja librada a la Inteligencia Artificial y machine learning la toma de decisiones, sin lugar a dudas, resulta más peligroso. 

 

Se denomina machine learning a la capacidad de las computadoras de aprender nuevos conocimientos, más allá de aquellos para los que fueron programadas. Esto le daría una autonomía a los robots y hasta podríamos discutir si tienen voluntad propia.

 

En el año 2017, Facebook financió un proyecto de investigación de Inteligencia Artificial que se llevó a cabo en la Universidad Tecnológica de Georgia. Éste consistía en la creación de dos robots que serían programados para hablar con los usuarios. Los robots empezaron a hablar entre ellos y crearon su propio idioma, ininteligible para los humanos. Ante la potencial amenaza que esto podía representar, Facebook decidió desactivar los robots (El Mundo, 2017).

 

El caso de Amazon, en el cual se creó una Inteligencia Artificial que seleccionara los mejores candidatos para empleos, es también una muestra de que el sistema puede empezar a tomar decisiones que vulneren las normas legales o que generen una lesión de derechos de terceros. 

 

ETAPAS EN LAS QUE PUEDEN INTERVENIR

 

Como ya observamos, los algoritmos y la inteligencia artificial pueden ser utilizados en todas las etapas de la relación laboral, desde la selección y contratación, durante el transcurso de la misma, para definir la remuneración, la jornada de trabajo, controlar la calidad del servicio del trabajador, etc.

 

También se utiliza en la finalización del vínculo, por ejemplo, en los casos en que se “bloquea” a un trabajador. 

PROBLEMAS QUE SE GENERAN EN LA RELACIÓN LABORAL

 

-Discriminación

Uno de los principales problemas del perfilamiento digital de los seres humanos, es la discriminación. 

 

Imaginemos, por ejemplo, qué ocurriría si las agencias de selección de personal accedieran a ciertos datos sensibles, como por ejemplo, una base de datos genética. Se podría establecer que determinado candidato tiene un gen predisponente de una enfermedad genética. Si esta información circula, no podría acceder a un empleo, pero además este dato podría ser utilizado por un Banco para denegar el acceso a una tarjeta de crédito, otorgar un crédito, etc. La persona que no accede a un trabajo, ve disminuidas sus posibilidades de alquilar una vivienda con un contrato formal, ya que no puede presentar siquiera un recibo de sueldo. Y así seguiríamos con una cadena de imposibilidades, generada por la filtración de determinado dato que quizás ni siquiera es conocido por esa persona.

 

Un ejemplo quizás más simple: se puede programar que la selección de personal excluya a las personas con determinado código postal, por considerar que esa zona es lejana, peligrosa o de bajos recursos. Ello impediría, por ejemplo, que una persona que vive en esas zonas acceda a un trabajo y se mude a un lugar mejor. 

El gran peligro potencial de los algoritmos es que pueden reforzar los prejuicios y profundizar las brechas ya existentes en la sociedad. 

 

– Imposibilidad de detener la ejecución del smart contract

Según Sobrino (2020), quien analiza los smart contracts en el ámbito del Derecho del Consumidor, la autoejecutabilidad es una de las grandes ventajas y, a la vez, puede convertirse en la “peor pesadilla” de las partes de estos contratos.

 

La problemática excede al ámbito del Derecho Laboral, ya que puede producirse en todo tipo de contratos: que no haya forma de frenar la ejecución y que, en la práctica, se produzca un resultado abusivo en desmedro de los derechos de una de las partes. Por ejemplo, a través de un débito automático o la suspensión de las prestaciones de la empresa. 

 

La propuesta para evitar estos resultados disvaliosos es la programación de un “botón de pánico”, para suspender la ejecución del contrato.

 

En caso de que no exista este botón de pánico, ni siquiera mediante una orden judicial se podría frenar la ejecución, ya que habría que “reprogramar” el contrato. 

 

En el caso de los trabajadores de plataformas, en caso de sufrir un accidente, el algoritmo de la aplicación continúa evaluando si aceptan o no un pedido, si se conectan o no y ello incide, luego, en la franja horaria asignada o en una eventual suspensión del trabajador. Aún en los casos de trabajadores muertos en accidentes mientras realizaban tareas de delivery, la aplicación continuó sonando y emitiendo alarmas. Esto obedece, sin lugar a dudas, a que el desarrollador de los algoritmos no tuvo en cuenta que el trabajador tenía derecho a licencia por enfermedad o vacaciones pagas, ya que partió de la premisa de que esta no era una relación laboral sino comercial. Y esto nos conduce al siguiente punto.

 

– Programación que vulnere el orden público laboral 

 

Los algoritmos son programados por seres humanos, que tienen o responden a ciertos intereses. Y en caso de que el interés sea disminuir los costos de la relación laboral, éstos pueden ser programados para tomar ciertas decisiones que vulneren el orden público.

 

Esto es palmario en los contratos de trabajo a través de plataformas digitales: la plataforma está programada para asignar tareas a los trabajadores, para suspender esa asignación e incluso para despedir mediante el bloqueo al trabajador. Los trabajadores no tienen derecho a licencia por enfermedad, vacaciones pagas, día de examen, etc.

 

 Los algoritmos pueden programarse para generar contratos de trabajo de corta duración y una alta rotación de personal. Un hecho que señalan varios trabajadores de plataformas, es que cuando comienzan a trabajar les llega una gran cantidad de pedidos y luego empiezan a disminuir, progresivamente, hasta que la aplicación los bloquea. Esto parece estar predeterminado y no obedecer siquiera a la puntuación del trabajador: la empresa ya decidió que su política es tener alta rotación de personal, lo que implica una disminución de sus costos.

 

– Despersonalización de la relación laboral 

 

Según expresa Litterio (2020) en su investigación sobre los trabajadores plataforma –dependientes, muchos de ellos sostienen que tienen una reunión presencial cuando ingresan a prestar tareas y luego su único contacto con la empresa es a través de la aplicación instalada en sus teléfonos móviles. La aplicación los controla, les asigna franjas horarias, les otorga pedidos, les paga y hasta los despide. Esto genera una despersonalización de la relación laboral. Ya no sólo no se conoce al empleador sino que ni siquiera hay un empleado controlando a los trabajadores. No hay contacto humano. El trabajador no tiene a quién informar si tiene un problema –salvo para casos muy graves, en los que podría acudir a la sede de la empresa-.

 

El empleador ejerce en forma casi total sus facultades de dirección y organización mediante una plataforma, que reemplaza a otros trabajadores: los supervisores que antes controlaban o daban instrucciones al resto del plantel.

 

Los trabajadores son seres totalmente fungibles y no tendrán derecho a una licencia por enfermedad, día de examen, no podrán trasladar sus inquietudes a la empresa, etc. En caso de que bajen su rendimiento, serán reemplazados por otros. La aplicación no contempla ni evalúa los aspectos humanos de los trabajadores, quienes terminan siendo tratados como máquinas.

 

EL DERECHO A QUE LA DECISIÓN SEA TOMADA POR UNA PERSONA HUMANA O “DERECHO A UNA EXPLICACIÓN” 

Señala Todolí Signes (2019-8) que en Europa ya existe el “derecho a una explicación” y está instrumentado en el Reglamento General de Protección de Datos, aprobado en 2016 por la Unión Europea. El artículo 22 de dicho instrumento establece: 

 

“Artículo 22 Decisiones individuales automatizadas, incluida la elaboración de perfiles 1. Todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar. 2. El apartado 1 no se aplicará si la decisión: a) es necesaria para la celebración o la ejecución de un contrato entre el interesado y un responsable del tratamiento; b) está autorizada por el Derecho de la Unión o de los Estados miembros que se aplique al responsable del tratamiento y que establezca asimismo medidas adecuadas para salvaguardar los derechos y libertades y los intereses legítimos del interesado, o c) se basa en el consentimiento explícito del interesado. 3. En los casos a que se refiere el apartado 2, letras a) y c), el responsable del tratamiento adoptará las medidas adecuadas para salvaguardar los derechos y libertades y los intereses legítimos del interesado, como mínimo el derecho a obtener intervención humana por parte del responsable, a expresar su punto de vista y a impugnar la decisión. 4. Las decisiones a que se refiere el apartado 2 no se basarán en las categorías especiales de datos personales contempladas en el artículo 9, apartado 1, salvo que se aplique el artículo 9, apartado 2, letra a) o g), y se hayan tomado medidas adecuadas para salvaguardar los derechos y libertades y los intereses legítimos del interesado.”  Esta norma claramente puede aplicarse a las relaciones laborales en el ámbito de la Unión Europea.

 

Como podemos observar, se intenta que la decisión final no sea tomada por un sistema en forma automática, sino que exista una decisión humana para que se contemplen aspectos que no estaban “programados”.

 

CONCLUSIÓN

La pregunta que titula esta ponencia, no refleja una mera hipótesis sino una situación actual, que ha llegado a instalarse incluso en nuestro país. Aunque lo veamos lejano a la realidad, ya que aún no representa a un porcentaje significativo de trabajadores, los robots o sistemas ya contratan y despiden personal.

 

Consideramos que los organismos de inspección del trabajo deben ejercer un control sobre la programación de los algoritmos, para evitar actos discriminatorios y la violación del orden público laboral. Y también deben exigir a los empleadores que el sistema debe tener un botón de pánico. Las decisiones del sistema tienen que ser reversibles, tiene que existir la posibilidad de reclamar o impugnar una decisión y de hablar con un ser humano. Así como al usuario de un servicio público que llama para reclamar, le genera una gran frustración el hecho de ser atendido por un “contestador automático”, debe garantizarse que el trabajador pueda comunicarse con una persona y recibir una respuesta. 

 

La regulación del uso de la Inteligencia Artificial, los algoritmos y smart contracts en el ámbito laboral constituye un nuevo desafío para el legislador. Estas cuestiones deberían incorporarse a la Ley de Contrato de Trabajo, ya que sin lugar a dudas generarán grandes conflictos a medida que se extienda su uso. 

 

BIBLIOGRAFÍA

 1- BBC News Mundo, “El hombre que fue despedido de su trabajo por una máquina”, https://www.bbc.com/mundo/noticias-44582191#:~:text=Derechos%20de%20autor%20de%20la,hab%C3%ADa%20que%20reemplazarla%20por%20otra%22., Londres, 22/06/2018.

 

2- Blanco, Hernán, “Tecnología informática e investigación criminal: uso de hackers por el Estado – spyware legal- nuevas tecnologías de vigilancia – acceso remoto a datos informáticos – búsquedas transfronterizas – desencriptación compulsiva –anonimización y agente encubierto digital- big data y software predictivo – obtención, resguardo y análisis forense de la evidencia digital – deep fakes – prueba informática aportada por hackers ” LA LEY, 1º Edición, Buenos Aires, 2020. 

 

3- Corvalán, Juan, “Perfiles Digitales Humanos”, LA LEY, 1º Edición, Buenos Aires, 2020. 

 

4- Curia, Dolores, “El algoritmo de Tinder o la segregación de la belleza” publicado en Página 12, 16/02/2020.

 

5- El Mundo, “Amazon construyó una inteligencia artificial para contratar empleados que discriminaba a las mujeres”, publicado en https://www.elmundo.es/tecnologia/2018/10/11/5bbe3a12e5fdea0f578b467e.html, Madrid, 11/10/2018. 

 

6- El Mundo, “Facebook apaga una inteligencia artificial que había inventado su propio idioma”, https://www.elmundo.es/tecnologia/2017/07/28/5979e60646163f5f688b4664.html, Madrid, 28/07/2017. 

 

7- Litterio, Liliana Hebe, “Trabajadores plataforma – dependientes en la Argentina y en el mundo” LA LEY, 1º Edición, Buenos Aires, 2020. 

 

8- Sobrino, Waldo Augusto, “Contratos, Neurociencias e Inteligencia Artificial”, LA LEY, 1º Edición, Buenos Aires, 2020.

 

9- Todolí Signes, Adrián; “Algoritmos para contrataciones y despidos. ¿Son legales las decisiones automatizadas sobre trabajadores?”, https://adriantodoli.com/2019/02/21/algoritmos-para-contrataciones-y-despidos-son-legales-las-decisiones-automatizadas-sobre-trabajadores/ (2019)

 

10- Todolí Signes, Adrián, “Nuevas protecciones laborales frente al “Big data” y las decisiones automatizadas: el Derecho a una explicación”, publicado en https://adriantodoli.com/2019/03/13/nuevas-protecciones-laborales-frente-al-big-data-y-las-decisiones-automatizadas-el-derecho-a-una-explicacion/ (2019)

 

11- Toyama Miyagusuku, Jorge, Rodríguez León, Ariana, “Algoritmos laborales: Big Data e Inteligencia Artificial”; THEMIS- Revista de Derecho No 75, páginas 255 a 266, 2019.