LA DISCRIMINACION ALGORÍTIMICA

POR ERNESTO J. AHUAD 

1. INTRODUCCIÓN

El uso de la inteligencia artificial (IA)  está transformando el mundo de las relaciones laborales,  incluso en contextos socioeconómicos signados por la alta informalidad laboral crónica. Si bien su incorporación a los procesos laborales presenta indudables ventajas, su uso en la contratación, evaluaciones de desempeño e – incluso-  rescisiones contractuales puede generar discriminación algorítmica, afectando a grupos vulnerables especialmente tutelados. El presente pretende analizar causas, manifestaciones y consecuencias de este fenómeno aún incipiente en Argentina, pero ya bien instalado en otras realidades, examinando los marcos legales de referencia, y proponiendo soluciones que garanticen la equidad. 

En tal contexto, si bien la inteligencia artificial ha optimizado procesos laborales como la selección de personal, la gestión de recursos humanos y la evaluación de productividad,  los algoritmos -al basarse en datos históricos y diseños humanos- pueden reproducir sesgos sociales, generando discriminación algorítmica (Dastin, 2018). Este fenómeno afecta desproporcionadamente a grupos vulnerables (personas con discapacidad, mujeres, colectivo LGBTIQ+, etc.) cuya diversidad puede ser penalizada por algoritmos que refuerzan normas heteronormativas. Además, tecnologías emergentes como la blockchain están comenzando a integrarse en la gestión laboral, ofreciendo tanto oportunidades como riesgos en la lucha contra la discriminación. En países como Argentina, con una legislación laboral robusta pero incipiente en materia de IA, este problema – más temprano que tarde- planteará desafíos emergentes, lo que torna necesario comenzar a evaluar sus impactos, los marcos legales aplicables y posibles soluciones que garanticen entornos laborales no excluyentes.

2. LA DISCRIMINACIÓN ALGORÍTMICA: ORIGEN Y MANIFESTACIONES

La discriminación algorítmica ocurre cuando los sistemas de IA producen resultados sesgados que desfavorecen a ciertos grupos protegidos. Según Ajunwa (2019), los sesgos algorítmicos provienen de datos de entrenamiento sesgados; esto es, datos históricos que reflejan desigualdades (por ejemplo, preferencias por determinados perfiles en contrataciones) que  pueden perpetuar exclusiones (Dastin, 2018). También del diseño algorítmico, que implica la selección inadecuada de variables, como priorizar patrones de comportamiento asociados a normas tradicionales, puede generar toma de decisiones injustas (Bogen & Rieke, 2018). A ello se suma la frecuente falta de transparencia, dado que los algoritmos, a menudo funcionan «cajas negras», dificultando la identificación de sesgos y complicando la rendición de cuentas (Pasquale, 2015). A fines ejemplificativos, cabe recordar el sonado caso “Amazon” de 2018, cuando el gigante tecnológico debió abandonar un algoritmo de selección tras descubrir que penalizaba currículums con términos asociados a mujeres (Dastin, 2018).  Lejos de ser un caso aislado, en la gig economy, determinadas plataformas usan algoritmos que pueden penalizar a trabajadores con horarios flexibles, afectando a mujeres, cuidadores y personas LGBTIQ+ que enfrentan responsabilidades diversas (Ajunwa et al., 2019). En Argentina, los algoritmos de asignación de tareas en plataformas de delivery han sido cuestionados por posibles sesgos contra trabajadores migrantes, de zonas periféricas o por identidades de género (Ahuad, en prensa).

3. IMPACTO EN EL ÁMBITO LABORAL

La discriminación algorítmica tiene consecuencias significativas. A nivel individual, los trabajadores enfrentan barreras injustas en contratación, promociones o despidos, reforzando desigualdades estructurales. Un estudio de Princeton encontró que los algoritmos podían inferir características protegidas, como orientación sexual o identidad de género, a partir de datos aparentemente neutrales (por ejemplo, patrones de redes sociales), generando decisiones discriminatorias (Dwork et al., 2017). En Argentina, donde – como se expresó ya-  la informalidad laboral es alta, los algoritmos de plataformas digitales pueden exacerbar la precariedad de trabajadores vulnerables, al imponer sanciones automáticas basadas en métricas sesgadas que no consideran sus realidades (Ahuad, en prensa). Por ejemplo, algoritmos que priorizan disponibilidad continua pueden penalizar a personas que enfrenten barreras adicionales, como trámites legales o discriminación social. 

Además, la integración de la tecnología blockchain en la gestión laboral introduce nuevos desafíos. Algunas empresas están utilizando blockchain para registrar contratos laborales inteligentes pero los algoritmos que gestionan estas plataformas pueden perpetuar sesgos si no se diseñan con criterios inclusivos (Tapscott & Tapscott, 2016). Por ejemplo, un contrato inteligente que prioriza pagos rápidos a trabajadores con alta disponibilidad puede discriminar a aquellos con horarios flexibles. A nivel organizacional, los sesgos algorítmicos dañan la reputación de las empresas, generan demandas legales y limitan la diversidad, reduciendo la innovación y la productividad (Bogen & Rieke, 2018).

4. MARCO LEGAL ACTUAL

Las normativas laborales tradicionales y la jurisprudencia enfrentan limitaciones al regular la conflictividad derivada del uso de la IA. 

En Estados Unidos, el Título VII de la Ley de Derechos Civiles de 1964 prohíbe la discriminación por características protegidas, incluyendo orientación sexual tras el fallo “Bostock v. Clayton County” (2020), pero probar un «impacto dispar» causado por algoritmos es complejo debido a su opacidad (Kim, 2017). En 2023, la Comisión para la Igualdad de Oportunidades en el Empleo (EEOC) emitió guías que responsabilizan a los empleadores por discriminación algorítmica, aunque no son vinculantes (EEOC, 2023).

En la Unión Europea, el Reglamento de Inteligencia Artificial (2024) clasifica los sistemas de IA laborales como de «alto riesgo», exigiendo auditorías, transparencia y evaluación de sesgos, con atención a la discriminación por orientación sexual o identidad de género (Comisión Europea, 2024). La Directiva de Transparencia Salarial (2023) podría extenderse para incluir decisiones algorítmicas. En España, la Ley Rider (2021) regula la transparencia en algoritmos de plataformas digitales específicamente en relación al trabajo de los repartidores que trabajan para plataformas digitales de envío a domicilio (BOE, 2021).

En Argentina, la Ley de Contrato de Trabajo  y la ley 23.592 prohíben la discriminación arbitraria. A ellas se suma el reforzamiento por la ley 26.743 de Identidad de Género. Sin embargo, estas normas no abordan explícitamente la IA ni el uso de blockchain en la gestión laboral. Tampoco la ley 27.636 (2021) sobre equidad de género en el trabajo – aunque podría servir para regular decisiones algorítmicas- contiene de disposiciones específicas. El sector de delivery, donde los algoritmos imponen sanciones opacas, plantea riesgos para trabajadores en situación sensible. En suma, la falta de regulaciones sobre IA y blockchain en Argentina, a diferencia de lo que sucede en la Unión Europea y los Estados Unidos, deja a colectivos concretos de trabajadores expuestos a la vulnerabilidad.

5. PROPUESTAS DE SOLUCIÓN

Existen diversos medios para  mitigar la discriminación algorítmica.

Tomando como guía las soluciones ya aportadas en otras legislaciones (Reglamento de IA de la UE), las auditorías algorítmicas obligatorias pueden constituirse en una herramienta valiosa, al establecer la obligación de llevar a cabo auditorías independientes para identificar sesgos para plataformas digitales y sistemas basados en blockchain (Comisión Europea, 2024).

Ello debe complementarse con una política de transparencia en decisiones algorítmicas, materializada en la obligación para los empleadores de informar a los trabajadores cuando se utilicen algoritmos o contratos inteligentes en blockchain en la toma de decisiones, proporcionando explicaciones claras, como sugiere Pasquale (2015). 

En Argentina, esto podría integrarse en la Ley de Protección de Datos Personales (ley 25.326), para vedar y regular el uso de datos sensibles que infieran – por ejemplo- orientación sexual, identidad de género, calidades migratorias, o cualquier otra, requiriendo avances técnicos para prevenir inferencias indirectas (Dwork et al., 2017). Yendo más a fondo, fortalecimiento de recursos legales (demandas colectivas y apoyo a trabajadores a través del asesoramiento sindical o regulador (Kim, 2017). En Argentina, estas iniciativas podrían recaer en sindicatos y organizaciones no gubernamentales (ONG) para propender a la educación y sensibilización en el tema, promoviendo campañas sobre los riesgos de la discriminación algorítmica y el uso de tecnologías  asociadas.

Finalmente, es crucial involucrar criterios de diversidad en el diseño de las IA y en el uso de tecnología blockchain, incorporando equipos diversos en el desarrollo de algoritmos y sistemas blockchain para garantizar contratos inteligentes inclusivos (Bogen & Rieke, 2018; Tapscott & Tapscott, 2016). 

6. CONCLUSIÓN

La discriminación algorítmica configura un desafío crítico para el derecho laboral, con impactos significativos en grupos vulnerables. La integración de IA y blockchain en la gestión laboral ofrece oportunidades para mejorar la transparencia, pero también riesgos si no se diseñan con criterios inclusivos. La Unión Europea y los EE.UU cuentan con marcos legales en evolución, pero en Argentina, la falta de regulaciones específicas adecuadas sobre IA y blockchain deja lagunas en la protección de las personas trabajadoras, especialmente en la gig economy. Las auditorías algorítmicas, la transparencia, la prohibición de prácticas discriminatorias y el fortalecimiento de recursos legales son esenciales para garantizar la equidad. Equilibrar la innovación tecnológica con la protección de los derechos laborales, incluyendo la diversidad, requiere un esfuerzo conjunto de legisladores, empresas y organizaciones sociales.

REFERENCIAS

  • Ajunwa, I., Crawford, K., & Ford, J. (2019). The quantified worker: Legal implications of wearable technology and algorithmic management. Columbia Law Review, 119(3), 587–632.
  • Ahuad, E. J. (en prensa). Plataformas digitales y derechos laborales en Argentina: Desafíos de la vigilancia algorítmica.
  • Bogen, M., & Rieke, A. (2018). Help wanted: An examination of hiring algorithms, equity, and bias. Upturn. https://www.upturn.org/reports/2018/hiring-algorithms/
  • BOE. (2021). Real Decreto-ley 9/2021, de 11 de mayo, por el que se modifica el Estatuto de los Trabajadores. Boletín Oficial del Estado, 115, 59027–59034.
  • Comisión Europea. (2024). Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas sobre inteligencia artificial. Diario Oficial de la Unión Europea, L 1689.
  • Dastin, J. (2018, October 10). Amazon scraps secret AI recruiting tool that showed bias against women. Reuters. https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G
  • Dwork, C., Hardt, M., Pitassi, T., Reingold, O., & Zemel, R. (2017). Fairness through awareness. Proceedings of the 3rd Innovations in Theoretical Computer Science Conference, 214–226. https://doi.org/10.1145/2090236.2090255
  • EEOC. (2023). Select issues: Assessing adverse impact in software, algorithms, and artificial intelligence used in employment selection procedures under Title VII. U.S. Equal Employment Opportunity Commission. https://www.eeoc.gov/select-issues-assessing-adverse-impact-software-algorithms-and-artificial-intelligence-used
  • Kim, P. T. (2017). Data-driven discrimination at work. William & Mary Law Review, 58(3), 857–936.
  • Pasquale, F. (2015). The black box society: The secret algorithms that control money and information. Harvard University Press.
  • Tapscott, D., & Tapscott, A. (2016). Blockchain revolution: How the technology behind Bitcoin is changing money, business, and the world. Penguin.