Menú Cerrar

IMPLICANCIAS LABORALES DEL REGLAMENTO EUROPEO SOBRE INTELIGENCIA ARTIFICIAL

Gustavo E. Velesquen Saenz

  1. Introducción: Contexto regulatorio del Reglamento Europeo sobre IA. En enfoque basado en riesgos.

El 1 de agosto de 2024 entró en vigencia el Reglamento Europeo sobre Inteligencia Artificial (REIA), el que establece un marco legal para regular el uso de la IA en diversos ámbitos, incluyendo el laboral. Su objetivo principal es asegurar que los sistemas de IA sean seguros, transparentes y respeten los derechos fundamentales de los individuos, incluidos los trabajadores. 

El Reglamento Europeo de Inteligencia Artificial (REIA) basa su regulación en una aproximación centrada en la noción de “riesgo”, definida como “la combinación de la probabilidad de que ocurra un daño y la gravedad de dicho daño”, conforme la definición provista por el artículo 3 inciso 2.

A partir de esta definición, el REIA clasifica los riesgos en cuatro niveles según el tipo de uso que se le dé a la IA y al potencial impacto sobre los derechos humanos, estableciendo normas diferentes para cada nivel.  A mayor riesgo, mayores restricciones y obligaciones. 

Así, en un extremo, encontramos aquellos sistemas de IA cuyo riesgo es reputado como inaceptable, los que, en principio se encuentran prohibidos.

En el otro extremo, encontramos los sistemas de riesgo mínimo, que no tienen prácticamente limitaciones. Por ejemplo, los algoritmos de sugerencia de canciones o películas entrarían en esta categoría.

Un peldaño por encima de este último se encuentran los sistemas de riesgo limitado, entre los que quedan encuadrados, por ejemplo, los chatbots. A estos se les impone una obligación de transparencia, o sea que la persona física conozca que está interactuando con un sistema de IA.

Y, por encima de estos últimos y debajo de los sistemas de riesgo inaceptable, se encuentran los sistemas de alto riesgo. Estos sistemas son los que, desde una perspectiva laboral, resultan de mayor interés y abordaremos más detalladamente, por cuanto quedan comprendidos dentro de esta categoría casi todo lo relativo al mundo del trabajo. 

  1. Aspectos preliminares del Reglamento Europeo sobre IA relativos al ámbito del trabajo.

Para abordar las implicancias del Reglamento Europeo de Inteligencia Artificial (REIA) en el ámbito laboral, resulta crucial enmarcar las disposiciones legales dentro del contexto específico de las actividades y relaciones laborales. 

Tal como referimos en el punto anterior, el REIA establece un enfoque basado en riesgos, clasificando los sistemas de IA en diferentes categorías según el potencial impacto que pueden tener en los derechos fundamentales y el bienestar de los ciudadanos. 

Dentro de este marco, desde el punto de vista del derecho laboral, destacan las categorías de «riesgo no aceptable» y «alto riesgo», que imponen diferentes obligaciones y restricciones, y resultan particularmente pertinentes para el análisis de las implicancias laborales.

Entre los primeros, el artículo 5 establece qué prácticas son consideradas, en principio, prohibidas por el REIA, entre las que encontramos los siguientes supuestos: 

1. Manipulación o engaño subliminal: Prohibido utilizar IA para influir en el comportamiento de las personas o colectivos de manera que afecte su capacidad para tomar decisiones informadas, causando un perjuicio considerable.   

2. Explotación de vulnerabilidades: Se prohíbe usar IA para explotar vulnerabilidades relacionadas con la edad, discapacidad, o situaciones económicas o sociales, si eso altera el comportamiento de manera perjudicial.

3. Evaluación y clasificación de comportamiento social: Queda prohibido utilizar IA para clasificar a las personas según su comportamiento social o características personales, especialmente si eso conlleva un trato desfavorable en otros contextos o que sea injustificado y desproporcionado.

4. Predicción del riesgo de delitos: No se permite el uso de IA para predecir si una persona cometerá un delito, salvo en contextos donde la valoración humana esté basada en hechos verificables.

5. Reconocimiento facial no autorizado: Está prohibido crear o ampliar bases de datos de reconocimiento facial utilizando imágenes extraídas de internet o cámaras sin consentimiento.

6. Inferencia de emociones en el trabajo o la educación: No se puede utilizar IA para inferir emociones en entornos laborales o educativos, excepto en casos de seguridad o motivos médicos. 

7. Categorización biométrica sensible: Prohibido utilizar IA para clasificar personas según datos biométricos que infieran raza, opiniones políticas, afiliaciones sindicales, creencias religiosas, vida sexual, u orientación sexual.

8. Identificación biométrica en espacios públicos: El uso de IA para identificación biométrica remota en tiempo real en lugares públicos está prohibido, salvo en casos excepcionales relacionados con la seguridad pública, como secuestros o amenazas terroristas.

Por su parte, el artículo 6 del REIA establece las reglas para clasificar los sistemas de IA de alto riesgo, las que se basan en criterios que permiten identificar cuándo un sistema de IA presenta un riesgo elevado para la salud, la seguridad o los derechos fundamentales de las personas, contemplados en dos apartados.

Así, un sistema de IA será considerado de alto riesgo si cumple dos condiciones: a) Que el sistema de IA sea parte esencial de la seguridad de un producto cubierto por las normativas de la Unión Europea que se enumeran en el anexo I, o que el propio sistema de IA sea ese producto; b)Que el producto, ya sea el sistema de IA o aquel del que el IA forma parte, deba someterse a una evaluación de conformidad por terceros para ser comercializado o puesto en servicio según las normativas de la UE mencionadas en el anexo I. Pero, además se consideran también de alto riesgo aquellos sistemas de IA listados en el Anexo III del REIA que abarca, entre otros usos críticos, los sistemas de IA destinados al ámbito laboral.

Por último, es importante destacar que el propio REIA, en su artículo 2, al definir su ámbito de aplicación, expresa en su inciso 11 “el Reglamento no impedirá que la Unión o los Estados miembros mantengan o introduzcan disposiciones legales, reglamentarias o administrativas que sean más favorables a los trabajadores en lo que atañe a la protección de sus derechos respecto al uso de sistemas de IA por parte de los empleadores ni que fomenten o permitan la aplicación de convenios colectivos que sean más favorables a los trabajadores.”

  1. Considerandos del Reglamento Europeo de Inteligencia Artificial y su proyección al mundo del trabajo. 

Antes de adentrarnos en el tratamiento de las anteriores categorías, es importante señalar que en el REIA se expone, antes del articulado propiamente dicho, una extensa lista de 180 considerandos, donde se otorga un lineamiento normativo que sirve tanto para informar sus artículos, como así también para dar un contexto general de su aplicación e interpretación. Dentro de estos, encontramos numerosos considerandos aplicables a cuestiones laborales. 

El considerando 9 del Reglamento Europeo de Inteligencia Artificial (REIA) subraya que las normas armonizadas introducidas por éste se aplicarán de manera transversal a todos los sectores económicos y no alteran el derecho existente de la Unión Europea en áreas clave como la protección de datos, los derechos de los consumidores, los derechos fundamentales, el empleo y la seguridad de los trabajadores y productos.

El reglamento se concibe como un complemento a estas áreas, pero sin derogarlas ni interferir con su aplicación.

En el contexto laboral, el considerando enfatiza que este reglamento no afectará la normativa europea en materia de política social ni el derecho laboral nacional, siempre que estas normas estén alineadas con el derecho de la Unión Europea. Específicamente, se respetan las leyes nacionales relacionadas con las condiciones de empleo y trabajo, incluidas la salud y seguridad laboral, así como las relaciones entre empleadores y trabajadores. Además, el REIA no interfiere con el ejercicio de los derechos fundamentales, como el derecho a la huelga o la negociación colectiva, reconocidos tanto a nivel de los Estados miembros como en la legislación de la Unión.

Este considerando también menciona que las disposiciones destinadas a mejorar las condiciones laborales en el contexto del trabajo en plataformas digitales, establecidas por una directiva específica del Parlamento Europeo, tampoco se ven afectadas por el REIA. Por tanto, se aclara que no anula ni sustituye las regulaciones laborales preexistentes, sino que las complementa y debe ser aplicado en armonía con ellas: las normativas laborales nacionales y europeas, como las que regulan la salud y seguridad en el trabajo, las relaciones entre trabajadores y empleadores, o los derechos fundamentales como la huelga y la negociación colectiva, permanecen intactas. 

El considerando 20 enfatiza la necesidad de la Alfabetización digital en materia de IA para todos los actores involucrados en el ciclo de vida de los sistemas de inteligencia artificial. Proveedores, usuarios y personas afectadas deben tener el conocimiento necesario para tomar decisiones informadas sobre el uso de estos sistemas. 

En el ámbito laboral, la alfabetización en IA es esencial para garantizar el cumplimiento normativo y la correcta implementación de los sistemas de IA. Se reconoce la importancia de formar a los trabajadores y empleadores en el uso de la IA para asegurar que se apliquen correctamente los sistemas y que todos estén informados de sus derechos y responsabilidades. La alfabetización es vista como un medio para mitigar riesgos y mejorar el entorno laboral.

El considerando 44 establece la Prohibición de la detección de emociones en el ámbito laboral y educativo, al vedar el uso de sistemas de IA que detecten o interpreten las emociones en el trabajo y la educación debido a la preocupación sobre la falta de una base científica sólida y la alta variabilidad de la expresión emocional entre culturas y situaciones, incluso en una misma persona. El considerando destaca la prohibición de la IA para la detección emocional en el lugar de trabajo o en entornos educativos, debido a su naturaleza imprecisa y los posibles riesgos de discriminación y falta de fiabilidad.

El considerando 46 establece que la clasificación de un sistema de IA como «de alto riesgo» debe limitarse a aquellos sistemas de IA que tengan un efecto perjudicial considerable en la salud, la seguridad y los derechos fundamentales de las personas.

El considerando 48 aclara que el nivel de riesgo de un sistema de IA depende de su capacidad para vulnerar derechos fundamentales, como la dignidad, la privacidad, la no discriminación y, entre otros, los derechos de los trabajadores. De esta forma, todos los sistemas de IA que puedan afectar gravemente estos derechos requieren una regulación más estricta y medidas de control más robustas, por lo que serán catalogados como de alto riesgo.

El considerando 57 refuerza lo anterior, proyectándolo al ámbito laboral, al clasificar expresamente como de alto riesgo el uso de sistemas de IA en el empleo, la gestión de trabajadores, y el acceso al autoempleo, debido a su impacto en la contratación, selección, promoción, despido, asignación de tareas y evaluación del rendimiento.

Estos sistemas pueden influir significativamente en las oportunidades laborales y los derechos de los trabajadores. Además, existe un riesgo elevado de perpetuar patrones de discriminación histórica en todo el proceso laboral, afectando a mujeres, minorías, personas discapacitadas y otros grupos vulnerables. También se destaca el riesgo que estos sistemas representan para la privacidad y los derechos fundamentales de los trabajadores. Todo ello justifica que sean objeto de una regulación y control exhaustivos y su inclusión como de alto riesgo.

El considerando 58 trata un tema conexo al ámbito laboral, que es la utilización de sistemas de IA por parte de entidades públicas para la toma de decisiones relacionadas con la concesión, modificación o cese de prestaciones de seguridad social, tales como los relativos a protección de la maternidad, enfermedades y accidentes laborales, desempleo, entre otros. Ello se justifica en el hecho que podría tener un efecto considerable en los medios de subsistencia de las personas y vulnerar sus derechos fundamentales, como el derecho a la protección social, a la no discriminación, a la dignidad humana o a la tutela judicial efectiva. 

El considerando 91 establece que las personas responsables de implementar y supervisar el uso de sistemas de IA deben contar con el nivel adecuado de alfabetización, formación y autoridad en IA para llevar a cabo estas tareas de manera efectiva, complementando así el considerando 20, dándole así un marco de aplicación a la necesidad de contar con la debida alfabetización digital en sistemas de IA. 

Finalmente, el considerando 92 impone el deber de información a los trabajadores sobre el uso de IA por parte de sus empleadores. Los empleadores tienen la obligación de informar y, en ciertos casos, consultar a los trabajadores o sus representantes antes de poner en uso sistemas de IA de alto riesgo en el lugar de trabajo. Este derecho a la información es esencial para proteger los derechos fundamentales de los trabajadores y debe cumplirse independientemente de otras normativas laborales, estableciéndose un requisito de información adicional.

  1. Sistemas de IA considerados como de Riesgo no aceptable en el ámbito del trabajo (art. 5).

Los sistemas de IA que caen bajo la clasificación de «riesgo no aceptable» están prohibidos por su potencial de generar un daño grave y evidente en los derechos fundamentales de las personas físicas.

En este contexto, el artículo 5 del REIA identifica ocho prácticas de IA que están expresamente prohibidas por considerarse dentro de los riesgos no aceptables. Entre ellas, se destacan dos que podrían tener un impacto significativo en el mundo del trabajo.

La primera se refiere a los sistemas que se utilicen para inferir las emociones de una persona en el entorno laboral o en instituciones educativas, salvo que estén justificados por razones médicas o de seguridad. (art. 5.1 f). 

La segunda involucra los sistemas de categorización biométrica que clasifiquen individualmente a las personas físicas en función de sus datos biométricos, con el objetivo de deducir o inferir, entre otros aspectos, su raza, opiniones políticas, afiliación sindical, creencias religiosas o filosóficas, vida u orientación sexual, en los ámbitos de la aplicación de la ley […] o en los lugares de trabajo” (art. 5.1 g).

En ambos casos, deben relacionarse con el considerando 44 antes referido.

Estas prácticas, por sus características intrínsecas, presentan una amenaza directa e incompatible con valores fundamentales que hacen a la dignidad humana.

  • Protección de la privacidad: Ambos artículos subrayan la importancia de proteger la privacidad de los trabajadores. La vigilancia continua y la categorización basada en datos sensibles suponen un riesgo inaceptable para los derechos fundamentales de los empleados.
  • Discriminación y sesgo: Los sistemas de IA que procesan datos biométricos o clasifican personas según características sensibles corren el riesgo de perpetuar discriminaciones preexistentes, lo cual es especialmente preocupante en entornos laborales. Esto afectaría no solo el acceso al empleo, sino también la igualdad de trato dentro de la empresa.
  • Impacto en el bienestar de los trabajadores: La implementación de estos sistemas de IA en el lugar de trabajo puede generar un ambiente de control constante, socavando la autonomía y la confianza de los empleados. Los errores o el mal uso de estos sistemas pueden tener consecuencias directas sobre la estabilidad laboral y la vida personal de los empleados.
  1. Sistemas de IA considerados como de Alto Riesgo en el ámbito del trabajo (arts. 6.1 y 6.2).

Los sistemas de «alto riesgo» abarcan una amplia gama de aplicaciones dentro del ámbito laboral, especialmente en el control, gestión y evaluación de los trabajadores. Es en esta categoría donde se encuentran la mayoría de los desarrollos relacionados con la gestión algorítmica y automatizada de la fuerza laboral. 

El impacto de los sistemas de IA de alto riesgo sobre la gestión de personal, la contratación, el despido y la asignación de tareas ha determinado que, si bien no se encuentren prohibidas como el caso de los sistemas de IA de riesgo inaceptable, sí estén sujetas a estrictos requisitos de conformidad y control. Esta clasificación, como precisa el Considerando 46 antes referido, se basa en los efectos de dichos sistemas, ya que incluye aquellos que “tengan consecuencias perjudiciales significativas para la salud, la seguridad y los derechos fundamentales de las personas”. 

Por su parte, recordemos que el Considerando 57 en materia laboral justifica la inclusión de los sistemas de IA entre los de alto riesgo, ya que «pueden perpetuar patrones históricos de discriminación, por ejemplo, contra las mujeres, ciertos grupos de edad, personas con discapacidad o individuos de determinados orígenes raciales, étnicos u orientación sexual», lo que afecta tanto los procesos de contratación como la evaluación y promoción dentro de las relaciones laborales. 

Pero es el artículo 6.2 del REIA en conjunto con el Anexo III que confirma la inclusión del ámbito laboral a esta categoría. Dicho Anexo en su inciso 4 incluye entre los sistemas de IA de alto riesgo aquellos que afectan al “empleo, gestión de los trabajadores y acceso al autoempleo”. 

En concreto, se señalan dos tipos de sistemas:

a) Sistemas de IA utilizados para la contratación y selección de personal, tales como la publicación de ofertas específicas de empleo, el análisis y filtrado de solicitudes, y la evaluación de candidatos.

b) Sistemas de IA utilizados para tomar decisiones que afecten a las condiciones de las relaciones laborales, tales como la promoción o terminación de contratos, la asignación de tareas en función de comportamientos individuales, rasgos o características personales, o la supervisión y evaluación del desempeño y comportamiento de los trabajadores.

Vemos aquí reflejadas claramente las dos grandes áreas en las que los sistemas de inteligencia artificial están siendo implementados en el ámbito laboral: por un lado, en la fase de incorporación a la empresa, que abarca el filtrado de currículums, la selección de candidatos y la identificación de perfiles específicos; y, por otro lado, en la gestión del personal, que incluye aspectos como la promoción, la fijación de remuneraciones, los ascensos, los despidos y la movilidad, entre otros.

Además de caracterizar los sistemas de inteligencia artificial de alto riesgo, el REIA establece requisitos y obligaciones específicas para su desarrollo y utilización, con implicancias directas en el ámbito laboral. En particular, el artículo 8 fija un conjunto de garantías a través de requisitos generales que estos sistemas deben cumplir, tomando en cuenta su finalidad y el estado actual de la tecnología en IA. Estos requisitos incluyen medidas técnicas y organizativas destinadas a gestionar los riesgos asociados, asegurando que su funcionamiento sea seguro y confiable dentro del contexto laboral.

  1. Sistema de gestión de riesgos.  

 Los sistemas de IA clasificados como de alto riesgo deben establecer, documentar y mantener un sistema de gestión de riesgos integral. Este sistema debe abarcar todas las fases del ciclo de vida del sistema de IA, asegurando la identificación, evaluación y mitigación de los riesgos vinculados a su uso. El artículo 9 del REIA detalla que este enfoque debe ser continuo y sistemático, garantizando que los riesgos sean gestionados de manera efectiva durante el desarrollo, implementación y operación del sistema.

  1. Calidad de los datos para el entrenamiento de modelos.

La calidad de los datos empleados en el entrenamiento, validación y prueba de los modelos de inteligencia artificial es fundamental para garantizar la precisión y la equidad en los resultados generados. Según lo estipulado en el artículo 10 del REIA, los datos deben cumplir con criterios estrictos de calidad, asegurando que sean adecuados, representativos y estén libres de sesgos que puedan producir resultados discriminatorios o incorrectos. Esto resulta especialmente relevante en el ámbito laboral, donde el uso de sistemas de IA en procesos de selección de personal, evaluación de desempeño y decisiones relacionadas con la promoción o el despido puede tener un impacto directo sobre los derechos de los trabajadores.

Desde la perspectiva de los derechos laborales, la exigencia de calidad en los datos busca prevenir situaciones en las que los sesgos presentes en los datos históricos, como aquellos basados en género, raza o edad, se perpetúen o incluso se amplifiquen en las decisiones automatizadas. El REIA establece que los proveedores de sistemas de IA deben tomar las medidas necesarias para mitigar estos riesgos, adoptando enfoques proactivos para identificar y corregir cualquier posible sesgo en los datos. Además, los sistemas deben ser diseñados para garantizar el respeto de los derechos fundamentales de los trabajadores, como el derecho a la no discriminación y el derecho a la igualdad de oportunidades en el empleo. 

El cumplimiento de estos requisitos es esencial no solo para asegurar un tratamiento justo y equitativo de los trabajadores, sino también para promover la confianza en el uso de la inteligencia artificial en el ámbito laboral. Los sistemas de IA que no cumplan con los estándares de calidad de los datos pueden generar decisiones que afecten negativamente a los trabajadores, vulnerando sus derechos y comprometiendo la integridad de los procesos de gestión de personal. Por ello, el REIA insiste en la necesidad de una revisión continua y rigurosa de los datos utilizados para garantizar que estos cumplan con los principios de equidad y no discriminación en todas las fases del ciclo de vida del sistema de IA.

  1. Documentación técnica.

De acuerdo con lo dispuesto en el artículo 11 del REIA, los sistemas de IA clasificados como de alto riesgo deben contar con una documentación técnica exhaustiva antes de ser introducidos en el mercado. Este dossier técnico tiene la finalidad de describir de manera detallada el diseño del sistema, los datos utilizados para su entrenamiento, los procedimientos de validación y prueba, así como los riesgos potenciales asociados a su implementación. Además, esta documentación debe mantenerse actualizada a lo largo de todo el ciclo de vida del sistema, garantizando su continua revisión y adecuación conforme evolucione la tecnología y el entorno en el que se aplique.

Desde una perspectiva de los derechos laborales, la documentación técnica juega un papel crucial en la protección de los trabajadores. El uso de sistemas de IA en el ámbito laboral, como en los procesos de selección, gestión de personal o evaluación de desempeño, puede tener un impacto significativo sobre los derechos fundamentales, tales como el derecho a la igualdad de trato, la privacidad y la no discriminación. Por ello, el REIA exige que la documentación técnica incluya información detallada sobre las medidas adoptadas para mitigar los riesgos y garantizar que el sistema de IA funcione de manera equitativa y transparente.

Asimismo, esta documentación debe ser accesible a las autoridades competentes y, cuando sea necesario, a las partes interesadas, incluidos los representantes de los trabajadores, a fin de garantizar una supervisión efectiva. Esto no solo asegura la trazabilidad y la responsabilidad del proveedor del sistema de IA, sino que también contribuye a la transparencia en el uso de estas tecnologías dentro del lugar de trabajo. La capacidad de auditar el sistema y de verificar que se han implementado medidas adecuadas para evitar la perpetuación de sesgos o discriminación es esencial para proteger los derechos de los trabajadores y mantener la confianza en la IA.

Finalmente, la obligación de mantener esta documentación técnica actualizada garantiza que el sistema de IA se ajuste a las normativas vigentes y a los avances tecnológicos. Cualquier cambio en el diseño, los datos o los procesos de toma de decisiones debe ser reflejado en la documentación, lo que permite una constante evaluación de los riesgos y una adecuada adaptación del sistema a nuevas realidades, protegiendo así tanto a los trabajadores como a los empleadores en un entorno laboral cada vez más automatizado.

  1. Registro automático de eventos.

El artículo 12 del REIA establece que los sistemas de IA de alto riesgo deben contar con mecanismos técnicos que permitan el registro automático de eventos a lo largo de su ciclo de vida. Este registro es fundamental para garantizar la trazabilidad del sistema y facilitar la supervisión tanto de su uso como de su correcto funcionamiento.

Desde una perspectiva laboral, la capacidad de registrar eventos automáticamente adquiere una relevancia significativa en contextos donde la IA se utiliza para tomar decisiones sobre la contratación, gestión y evaluación de los trabajadores. Estas decisiones, que pueden incluir promociones, sanciones o incluso despidos, deben estar sujetas a mecanismos de control que aseguren la equidad y la transparencia en su implementación. El registro automático de eventos permite documentar cada acción relevante llevada a cabo por el sistema de IA, lo que proporciona una base verificable para entender cómo se ha llegado a determinadas decisiones y, si fuera necesario, evaluar posibles fallos o sesgos en el proceso.

Además, este registro es crucial para la protección de los derechos de los trabajadores. Al garantizar que todas las interacciones del sistema quedan registradas, los trabajadores y sus representantes pueden acceder a información sobre cómo se están utilizando los sistemas de IA en el lugar de trabajo. Este nivel de supervisión es esencial para prevenir decisiones injustas o discriminatorias, ya que permite detectar irregularidades en el comportamiento del sistema o en los datos utilizados para tomar decisiones que afecten a las personas.

La trazabilidad también facilita la responsabilidad de los empleadores, quienes deben asegurarse de que los sistemas de IA cumplen con las normativas aplicables, incluidos los derechos laborales y de protección de datos. En caso de conflicto o disputa laboral, el registro automático de eventos proporciona pruebas claras que pueden ser revisadas por las autoridades competentes o por tribunales, facilitando la resolución de controversias y protegiendo tanto a los trabajadores como a las empresas frente a posibles litigios.

  1. Transparencia.

El artículo 13 del REIA establece que los sistemas de IA de alto riesgo deben funcionar con un grado de transparencia que permita a los responsables del despliegue y a los usuarios comprender adecuadamente los resultados generados por dichos sistemas. Esto incluye la obligación de proporcionar información clara y comprensible sobre el funcionamiento de la IA, especialmente en contextos donde sus decisiones impactan en áreas sensibles, como el empleo.

Esta obligación de transparencia es crucial en el ámbito laboral para proteger los derechos de los trabajadores y garantizar que las decisiones tomadas por sistemas de IA sean justas y equitativas. Cuando un sistema de IA interviene en procesos clave como la contratación, la promoción, la asignación de tareas, o incluso los despidos, es fundamental que tanto los empleadores como los empleados comprendan cómo funciona la IA y qué criterios utiliza para llegar a sus decisiones.

La transparencia y explicabilidad no solo ayudan a prevenir decisiones arbitrarias o discriminatorias, sino que también ofrecen a los trabajadores la posibilidad de cuestionar o impugnar decisiones automatizadas que consideren incorrectas o injustas. Por ejemplo, si un sistema de IA decide no seleccionar a un candidato para un puesto de trabajo o despedir a un empleado basándose en datos o algoritmos, los afectados deben tener acceso a información clara sobre cómo se ha procesado su caso, qué criterios se han aplicado y cuáles han sido los resultados. Esto es esencial para garantizar un proceso de toma de decisiones que respete los derechos fundamentales de los trabajadores, como el derecho a la no discriminación y a un trato justo.

Además, el artículo 13 establece que esta transparencia debe ser accesible no solo para los responsables del despliegue, sino también para los propios trabajadores. Esto implica que los sistemas de IA deben estar diseñados para facilitar la comprensión de su funcionamiento y sus resultados, tanto desde el punto de vista técnico como práctico. En el ámbito laboral, esta medida protege a los trabajadores al permitirles conocer cómo se les evalúa, asigna tareas o se toman decisiones que impactan directamente en su situación profesional.

  1. Supervisión humana. 

El artículo 14 del REIA establece que los sistemas de IA de alto riesgo deben estar sujetos a una supervisión humana efectiva durante su funcionamiento. Esta disposición es fundamental para garantizar que las personas físicas, es decir, los operadores humanos, tengan la capacidad de monitorear, intervenir y corregir el sistema en caso de que su comportamiento comprometa la seguridad, salud o derechos de los trabajadores.

Las empresas que empleen IA en procesos laborales están obligadas, en tanto responsables del despliegue de los sistemas de IA, a realizar evaluaciones exhaustivas de riesgos y a asegurarse de que las tecnologías implementadas no generen condiciones peligrosas, tanto físicas como psicológicas, para sus trabajadores.

Este artículo impone tanto la obligación de desarrollar mecanismos de interfaz humano-máquina adecuados, como también asegurar una intervención humana significativa en el área de la toma de decisiones automatizada en procesos laborales, como podría ser el ámbito de control y gestión algorítmico, la reasignación de funciones o incluso el despido.

De esta forma se establece una capa adicional de protección frente a decisiones que puedan tener un impacto significativo en las personas físicas, mitigando la posibilidad de decisiones discriminatorias, arbitrarias o que vulneren los derechos de los trabajadores, al tiempo que aseguran que sean las empresas las que mantengan el control sobre los procesos automatizados en beneficio de la seguridad y el bienestar laboral.

  1. Precisión, solidez y ciberseguridad. Riesgos de discriminación.

El artículo 15 del REIA establece que los sistemas de IA de alto riesgo deben garantizar, durante todo su ciclo de vida, altos niveles de precisión, solidez y ciberseguridad, a los fines de proteger la integridad del sistema frente a errores, fallos técnicos o posibles ciberataques. 

Los fallos en la precisión o solidez de estos sistemas pueden generar errores en la evaluación del rendimiento, asignaciones de tareas inadecuadas o decisiones automatizadas injustas, lo que en el ámbito laboral ello cobra especial relevancia dada la influencia que estos sistemas pueden tener sobre la toma de decisiones.

Por su parte, los fallos en ciberseguridad podrían exponer los datos personales y profesionales de los trabajadores, por lo que se impone implementar procedimientos adecuados para identificar y corregir cualquier tendencia discriminatoria que pueda surgir de los algoritmos utilizados. Este aspecto es crucial, ya que los sistemas de IA, especialmente aquellos que continúan aprendiendo una vez desplegados, pueden retroalimentarse con datos sesgados o perpetuar patrones discriminatorios. 

Por ejemplo, si un sistema de IA encargado de la selección de personal o de la evaluación del rendimiento tiene incorporados sesgos en sus datos de entrenamiento, al retroalimentarse con sus propios resultados podría reforzar estereotipos que afecten negativamente a ciertos grupos minoritarios, generando una discriminación en el acceso o desarrollo en el trabajo. 

En el ámbito laboral, esto puede generar desigualdades en la contratación, la promoción o la remuneración, afectando de manera desproporcionada a ciertos grupos de trabajadores (por ejemplo, por motivos de género, edad, raza o condición social). Por ello, el artículo 15 impone a las empresas la obligación de implementar mecanismos que mitiguen estos riesgos, a los fines de garantizar un trato justo e igualitario.

  1. Deber de información.

El artículo 26.7 del REIA, junto con el Considerando 92, establece un deber esencial de información que deben cumplir los responsables del despliegue de sistemas de IA de alto riesgo en el lugar de trabajo. Antes de que estos sistemas sean implementados, es obligatorio informar tanto a los representantes de los trabajadores como a los propios empleados acerca de la exposición a estos sistemas y de cómo afectarán el entorno laboral, no bastando con transparentar su uso.

Este deber de información es fundamental desde la perspectiva de los derechos laborales, ya que los trabajadores deben estar plenamente conscientes de la presencia de tecnologías que podrían influir en aspectos clave de su vida laboral, como la toma de decisiones en procesos de selección, la evaluación de su desempeño, o la determinación de su productividad. Informar a los trabajadores sobre estos aspectos les otorga una mayor capacidad de supervisión y control sobre cómo la IA impacta sus derechos, y les permite prepararse para posibles consecuencias.

El artículo refuerza la transparencia y el principio de participación, esenciales en el ámbito del derecho laboral. A través de este deber, se asegura que los trabajadores no solo sean sujetos pasivos en el uso de la tecnología, sino que tengan voz y conocimiento sobre cómo los sistemas de IA afectan sus condiciones laborales. Este enfoque es coherente con los derechos de consulta y participación que generalmente otorgan los convenios colectivos o las legislaciones laborales en varios países europeos.

Además, este deber de información busca prevenir el uso oculto o poco transparente de la IA en el lugar de trabajo. La implementación de tecnologías de IA sin el conocimiento adecuado de los empleados podría dar lugar a abusos, como el uso encubierto para monitorear a los trabajadores, evaluar su rendimiento sin su consentimiento, o tomar decisiones automatizadas sin una explicación clara. En este sentido, el REIA garantiza que cualquier sistema de IA de alto riesgo sea implementado con total claridad sobre su funcionamiento y su impacto en la relación laboral.

De igual manera, informar a los representantes de los trabajadores fomenta una protección colectiva, permitiendo a los sindicatos o comités de empresa participar en la vigilancia del uso de estos sistemas y en la defensa de los derechos laborales. Esto también es clave para garantizar que las tecnologías de IA respeten los derechos de privacidad de los empleados y no generen entornos laborales de vigilancia extrema o decisiones laborales injustas.

No puede dejar de vincularse este deber de transparencia con la obligación impuesta sobre quienes desplieguen estos sistemas de IA sobre la alfabetización digital en la materia, ya que esta última resulta necesaria a los fines de una debida comprensión de los alcances de la implementación de los sistemas de IA en los lugares de trabajo (conf. Considerandos 20 y 91) y lo establecido expresamente en el artículo 4 el REIA.

  1. Explicabilidad.

Por su parte, el artículo 86 del REIA consagra un derecho fundamental en la protección de las personas frente a las decisiones automatizadas tomadas por sistemas de IA de alto riesgo: el derecho a recibir una explicación clara y comprensible de dichas decisiones cuando tengan un impacto individual.

Esto implica que cualquier persona afectada por una decisión basada en los resultados de un sistema de IA, listado en el Anexo III del REIA, que produzca efectos jurídicos o que la afecte de manera significativa, tiene el derecho a obtener información detallada sobre el papel que el sistema de IA desempeñó en ese proceso decisional, así como los elementos esenciales que fundamentaron esa decisión. Ello no debe confundirse con la imposición de abrir el sistema de IA y sus algoritmos, sino que apunta a que pueda proporcionarse una explicación adecuada del proceso que llevó a la toma de decisión.   

Es importante aclarar que este derecho a recibir una explicación de las decisiones automatizadas no debe confundirse con la exigencia de revelar o «abrir» el sistema de IA y sus algoritmos subyacentes. La finalidad de este derecho no es acceder a los detalles técnicos específicos del funcionamiento del algoritmo, lo cual podría plantear problemas de propiedad intelectual o confidencialidad comercial. En cambio, el objetivo es proporcionar una explicación adecuada y comprensible del proceso de toma de decisiones en términos accesibles para el trabajador afectado.

Esta distinción es clave para equilibrar el derecho de las personas a entender cómo se tomó una decisión que las afecta y, al mismo tiempo, proteger los intereses legítimos de los desarrolladores de IA en mantener ciertos aspectos de su tecnología como secretos comerciales. Lo que se exige es que se puedan explicar los factores determinantes que influyeron en la decisión automatizada y cómo estos fueron evaluados por el sistema de IA, sin necesidad de divulgar el código fuente o los mecanismos algorítmicos exactos.

La explicación no requiere una apertura técnica del sistema, sino que apunta a garantizar la explicabilidad sobre el papel que desempeñó la IA en el proceso decisional y los criterios utilizados para alcanzar el resultado.

El derecho a una explicación adquiere una importancia crítica cuando la decisión tomada por el sistema de IA tiene un impacto negativo sobre la persona afectada, como puede ser una denegación de empleo o un despido. En tales casos, una explicación que le permita entender los criterios utilizados por la IA, los factores que influyeron en el resultado, y los elementos de la decisión que son atribuibles al juicio humano resultan fundamentales para que el afectado pueda ejercer de manera efectiva sus derechos de rectificación o impugnación, en caso de que considere que la decisión ha sido injusta o errónea (como en casos de despidos que puedan estar basados en evaluaciones sesgadas o procesos automatizados que no respeten las particularidades del trabajador).

Este derecho a la explicación tiene una fuerte vinculación con la protección de los derechos fundamentales de los trabajadores, incluyendo el derecho a la no discriminación, el derecho a la seguridad y salud laboral, y el derecho a la privacidad. 

Además, el derecho a recibir una explicación está alineado con la necesidad de transparencia y supervisión humana que establece el REIA, asegurando que los trabajadores no se vean sometidos a decisiones automatizadas opacas o arbitrarias. Al imponer la obligación de proporcionar una explicación clara, los empleados y sus representantes pueden evaluar si las decisiones basadas en IA se han ajustado a las normativas y principios de equidad, y si han respetado los derechos de los trabajadores, al tiempo que los empleadores, en tanto responsables del despliegue del sistema, se ven compelidos a asegurar la calidad de los datos para el entrenamiento de modelos, la supervisión humana significativa, la documentación técnica y el mantenimiento de un registro automático de eventos.

  1. Régimen sancionatorio.

El último componente del REIA lo constituye un régimen de responsabilidades y sanciones de gran alcance. Tal como señala el Considerando 168, “el cumplimiento del presente Reglamento debe poder ser exigido mediante la imposición de sanciones y otras medidas de ejecución”. 

En particular, el artículo 99.3 establece que la violación de las prohibiciones previstas en el artículo 5 será sancionada con multas administrativas de hasta 35 millones de euros o el 7 % del volumen de negocios global anual de la empresa infractora, si esta cuantía fuera superior. Además, el artículo 99.4 prevé multas de hasta 15 millones de euros o el 3% del volumen de negocios global en caso de incumplimiento de otras disposiciones relevantes, incluidas las obligaciones de los responsables del despliegue previstas en el artículo 26.

Estos requisitos y obligaciones están diseñados para minimizar los riesgos que los sistemas de IA de alto riesgo pueden representar para los derechos fundamentales en todas sus aplicaciones, incluidas las laborales, procurando de este modo reasegurar su respeto y la protección de los derechos fundamentales, particularmente en el ámbito laboral, donde el impacto de la IA es cada vez más significativo.

  1. Relación con otras normativas y principios internacionales.

Los aspectos laborales del uso de la inteligencia artificial (IA) en el ámbito laboral, tal como lo establece el REIA, no solo se alinea con los marcos internacionales de derechos humanos y laborales, sino también con principios recientes que abordan específicamente el impacto de la IA desde una perspectiva ética y regional. 

Al analizar estas disposiciones en relación con los marcos normativos internacionales de derechos humanos, como los Tratados y Convenciones sobre DD. HH. y los Convenios de la OIT, se observa una convergencia en torno a la protección de los derechos de los trabajadores, la igualdad de trato y las condiciones justas de trabajo y, en definitiva, sobre la protección de la dignidad humana.

En este contexto, los Principios de Hiroshima sobre la IA del G7, los Principios para la Inteligencia Artificial de la UNESCO (2021) y la Declaración de Montevideo sobre Inteligencia Artificial y su impacto en América Latina, por nombrar algunos de estos, añaden capas importantes de reflexión que deben ser consideradas al proyectar el uso de IA en el mundo laboral. 

Los Principios de Hiroshima adoptados por el G7 en 2023 destacan la transparencia, la explicabilidad y el respeto por los derechos humanos como pilares fundamentales para el desarrollo y despliegue de sistemas de IA, los cuales destacan la importancia de una IA centrada en las personas y en la protección de los derechos humanos, incluida la justicia en el trabajo. El Art. 5 del REIA refleja esta preocupación al prohibir sistemas que violen los derechos fundamentales de los individuos.

Estos principios hacen eco directo de lo establecido en el REIA, particularmente en sus artículos sobre transparencia (Art. 13) y el derecho a una explicación comprensible (Art. 86). Ambos textos comparten la preocupación por garantizar que las decisiones automatizadas, como las que afectan contrataciones o despidos, no vulneren los derechos fundamentales de los trabajadores y que la IA se utilice de manera ética, segura y justa. 

Además, los Principios de Hiroshima refuerzan la idea de que la IA no debe perpetuar ni exacerbar desigualdades, lo cual está directamente relacionado con el artículo 15 del REIA, que requiere mecanismos de detección y mitigación de sesgos discriminatorios en los sistemas de IA.

El enfoque en la supervisión humana que se encuentra en el artículo 14 del REIA también se alinea con los Principios de Hiroshima, que promueven la responsabilidad humana en el uso de la IA. Ambos enfatizan que, en contextos laborales, las personas deben ser capaces de supervisar, controlar y, cuando sea necesario, corregir las decisiones automatizadas para garantizar la protección de la seguridad y salud de los trabajadores, en consonancia con el Convenio 190 de la OIT.

Los Principios para la Inteligencia Artificial de la UNESCO (2021) subrayan la dignidad humana, el respeto a los derechos humanos y la promoción de la igualdad como ejes fundamentales para la regulación de la IA. Estos principios encuentran eco directo en las normas del REIA. La UNESCO resalta la importancia de evitar la discriminación algorítmica y de asegurar que los sistemas de IA no perpetúen sesgos, lo cual coincide con los artículos 10 y 15 del REIA, que imponen requisitos estrictos sobre la calidad de los datos y la prevención de sesgos discriminatorios. Esta preocupación también resuena en el artículo 26 del Pacto Internacional de Derechos Civiles y Políticos, que garantiza la igualdad ante la ley y la protección contra la discriminación.

En relación con la transparencia y el derecho a la información, los principios de la UNESCO insisten en que las personas tienen el derecho de comprender cómo funcionan los sistemas de IA que impactan sus vidas. Esto guarda coherencia con el artículo 13 del REIA, que establece que los trabajadores y sus representantes deben ser informados y entender el funcionamiento de los sistemas de IA de alto riesgo que se utilicen en el lugar de trabajo, lo que exige transparencia y respeto por los derechos de los trabajadores afectados por decisiones algorítmicas. Y esto se alinea también con el artículo 8.1 del Pacto Internacional de Derechos Económicos, Sociales y Culturales.

Por su parte, la Declaración de Montevideo aborda específicamente los desafíos y oportunidades que la IA presenta en América Latina. Esta declaración enfatiza la importancia de que la IA sea una herramienta que promueva la equidad social, el desarrollo sostenible y el respeto a los derechos laborales. Esto puede vincularse con los objetivos del REIA de evitar que la IA sea utilizada de forma discriminatoria o que profundice las desigualdades estructurales, lo cual se refleja en las medidas que garantizan la supervisión humana (Art. 14) y la calidad de los datos utilizados en los sistemas de IA (Art. 10).

Además, la Declaración de Montevideo promueve la participación activa de los trabajadores en la implementación y regulación de tecnologías de IA en el lugar de trabajo. Este enfoque inclusivo coincide con la obligación de informar a los trabajadores y sus representantes sobre el despliegue de IA (Art. 26.7) del REIA, y refleja principios establecidos en los Convenios de la OIT sobre el derecho de sindicalización y negociación colectiva. Esto se alinea con la recientemente aprobada Declaración de Montevideo “Para la construcción de un enfoque regional sobre la gobernanza de la Inteligencia Artificial y sus impactos en nuestra sociedad”, que ha elaborado tanto una declaración de principios como una hoja de ruta para desarrollar sistemas de IA respetuosos de los DD. HH. 

  1. Conclusiones.

El Reglamento Europeo de Inteligencia Artificial (REIA), al regular el uso de sistemas de IA en el ámbito laboral, se conecta profundamente con los principios consagrados en los principales instrumentos internacionales de derechos humanos y laborales. Estas regulaciones, al igual que los principios éticos sobre la inteligencia artificial, establecen un marco robusto para proteger la dignidad, la igualdad y los derechos fundamentales de los trabajadores.

La inteligencia artificial, si se regula y supervisa adecuadamente, tiene el potencial de ser una herramienta poderosa para mejorar tanto la productividad como las condiciones laborales. Sin embargo, sin una supervisión ética y técnica rigurosa, puede convertirse en un instrumento que exacerbe las desigualdades, fomente la discriminación y socave derechos fundamentales en el ámbito laboral. Por lo tanto, el desafío no solo reside en la implementación de estos sistemas, sino en asegurar que se diseñen, desarrollen y gestionen de manera alineada con los principios internacionales y nacionales que buscan proteger los derechos de los trabajadores.

Desde la perspectiva de los derechos laborales internacionales, el REIA establece un marco sólido en temas clave como la transparencia, la explicabilidad, la seguridad y la no discriminación en el lugar de trabajo. Estas disposiciones coinciden con el espíritu y las normas de varios Tratados y Convenciones sobre DD. HH. Por ejemplo, la Declaración Universal de los Derechos Humanos en su artículo 23 consagra el derecho a condiciones de trabajo justas y equitativas, mientras que la Convención Americana sobre Derechos Humanos protege el derecho a la dignidad, esencial cuando hablamos de decisiones automatizadas que pueden afectar la vida laboral de una persona. Asimismo, el Convenio 111 de la OIT prohíbe la discriminación en el empleo, lo cual se vincula estrechamente con los requisitos del REIA que buscan evitar que los sistemas de IA reproduzcan o amplifiquen sesgos y prácticas discriminatorias.

Es importante resaltar que el Convenio 190 de la OIT sobre violencia y acoso en el lugar de trabajo también encuentra una conexión con el REIA. Este convenio establece la necesidad de proteger a los trabajadores de prácticas laborales que, aunque no necesariamente físicas, puedan constituir una forma de acoso o generar un entorno laboral hostil. La IA mal regulada, especialmente en procesos de contratación, promoción o despidos, puede crear un clima de inseguridad e injusticia, socavando este derecho.

En cuanto al contexto argentino, aunque actualmente no cuenta con una legislación específica en materia de inteligencia artificial aplicada al trabajo, algunas normativas existentes pueden proporcionar una incipiente base de protección de los derechos laborales frente a la IA. La Ley de Protección de Datos Personales, la Ley de Contrato de Trabajo, y más cercana en el tiempo, la Ley de Teletrabajo, establecen algunos principios fundamentales para la protección de los trabajadores. No obstante, resulta evidente que estas normas son insuficientes para abordar los desafíos específicos que plantea el uso de la IA en el ámbito laboral. La evolución rápida y compleja de las tecnologías de IA exige una regulación más precisa y acorde con los estándares internacionales.

En este contexto, Argentina tiene la oportunidad de aprender de las experiencias internacionales. El REIA, por ejemplo, puede ser visto como un referente, no solo por la amplitud y profundidad de sus disposiciones, sino también por el proceso de creación plural y deliberativo que lo sustenta. Ha sido el resultado de años de trabajo interdisciplinario e inclusivo, que busca equilibrar los avances tecnológicos con la protección de derechos fundamentales. Sin embargo, cualquier intento de replicar una regulación similar en Argentina debe tener en cuenta las particularidades del contexto local.

Pretender introducir una legislación como la europea sin antes crear un ecosistema normativo adecuado, comenzando por una actualización integral de la Ley de Protección de Datos Personales, sería un error. La IA requiere de un marco regulatorio previo que incorpore los mejores y más modernos estándares en la protección de la privacidad, uno de los elementos cruciales cuando se trata de tecnologías que manejan grandes volúmenes de datos personales. Un enfoque fragmentado o prematuro podría generar vacíos normativos o, peor aún, causar efectos no deseados en la protección de los derechos laborales.

En este sentido, la Declaración de Montevideo sobre Inteligencia Artificial reafirman la necesidad de un enfoque centrado en los derechos humanos, la equidad y la protección laboral, que se adecúe a la realidad cultural, económica y social de la región, evitando la reproducción de estereotipos o la profundización de desigualdades. Y para ello, es esencial que, desde el diseño, el entrenamiento, desarrollo e implementación de los modelos de IA, hasta su regulación, se incluya la diversidad y el acervo culturales propios, reforzando desde el campo normativo la soberanía tecnológica.

Como reflexión final, el desarrollo y uso de la inteligencia artificial en el ámbito laboral debe enmarcarse en un enfoque integral y contextualizado, respetando los principios establecidos en los instrumentos internacionales de derechos humanos y laborales, en nuestra Constitución Nacional y nuestras leyes. El REIA ofrece una referencia útil, pero su implementación en nuestro país exige una reflexión profunda y una adaptación adecuada a las realidades locales. Solo así podrá garantizarse que el avance tecnológico vaya de la mano con la protección efectiva de los derechos humanos laborales. 

NOTAS AL PIE

1-Profesor Facultad Derecho (UBA) Cátedra Amanda B. Caubet; Profesor de Posgrado (Universidad San Juan Bosco; Universidad UCA Sede Paraná; Universidad Lomas de Zamora), Director del Instituto de Inteligencia Artificial y Derecho del Colegio de Abogados de San Martín; Delegado ante la Comisión de Inteligencia Artificial de F.A.C.A., Diplomado en Instituciones Profundizadas en Derecho Individual del Trabajo, en Procedimiento Laboral en la Provincia de Buenos Aires y Capital Federal, y en Derecho Colectivo del Trabajo (UNTREF); Disertante, Publicista. 

2-  Art. 3 inc. 56 del REIA: “«alfabetización en materia de IA»: las capacidades, los conocimientos y la comprensión que permiten a los proveedores, responsables del despliegue y demás personas afectadas, teniendo en cuenta sus respectivos derechos y obligaciones en el contexto del presente Reglamento, llevar a cabo un despliegue informado de los sistemas de IA y tomar conciencia de las oportunidades y los riesgos que plantea la IA, así como de los perjuicios que puede causar;”

3- Art. 4: “Los proveedores y responsables del despliegue de sistemas de IA adoptarán medidas para garantizar que, en la mayor medida posible, su personal y demás personas que se encarguen en su nombre del funcionamiento y la utilización de sistemas de IA tengan un nivel suficiente de alfabetización en materia de IA, teniendo en cuenta sus conocimientos técnicos, su experiencia, su educación y su formación, así como el contexto previsto de uso de los sistemas de IA y las personas o los colectivos de personas en que se van a utilizar dichos sistemas.”

4- En la Cumbre del G7 celebrada en Hiroshima el 19 de mayo de 2023, se adoptaron once principios rectores sobre el uso de la inteligencia artificial. Estos principios incluyen compromisos para mitigar riesgos y prevenir el uso indebido de la IA, mejorar la detección de vulnerabilidades, fomentar el intercambio responsable de información y la notificación de incidentes. También se promueve la inversión en ciberseguridad y la creación de un sistema de etiquetado que permita a los usuarios identificar contenidos generados por IA, garantizando mayor transparencia y seguridad.

5-  Los Principios para la Inteligencia Artificial de la UNESCO fueron adoptados el 23 de noviembre de 2021. Establecen un marco ético para el desarrollo y uso de la IA, destacando la importancia de respetar los derechos humanos, promover la inclusión, garantizar la transparencia, la responsabilidad y la privacidad en el manejo de datos. También abogan por la no discriminación, el uso sostenible de la IA para el beneficio social, y fomentan la cooperación internacional para evitar abusos y asegurar que la IA contribuya a desigualdades sociales y desarrollo equitativo.

6-  La Declaración de Montevideo sobre Inteligencia Artificial fue adoptada el 10 de marzo de 2023, en el marco del encuentro latinoamericano de IA. Este documento subraya la importancia de que las tecnologías de inteligencia artificial estén al servicio del bien común y promuevan una mejora en la calidad de vida de las personas. Además, enfatiza que la IA debe estar alineada con los principios democráticos y los derechos humanos, impulsando un desarrollo ético y responsable en América Latina

7- En Montevideo, República Oriental del Uruguay, en el marco de la Segunda Cumbre Ministerial sobre Ética de la Inteligencia Artificial en América Latina y el Caribe, realizada el 3 y 4 de octubre de 2023, se aprobó la Declaración de Montevideo que presentó la Hoja de Ruta del Grupo de Trabajo Regional sobre Inteligencia Artificial (IA), donde participaron las Ministras, Ministros y Altas Autoridades representantes de los países reunidos en la Segunda Cumbre Ministerial y de Altas Autoridades sobre la Ética de la Inteligencia Artificial en América Latina y el Caribe, con el apoyo de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) y de CAF -Banco de Desarrollo de América Latina y el Caribe. Pueden consultarse en https://www.gub.uy/agencia-gobierno-electronico-sociedad-informacion-conocimiento/comunicacion/noticias/aprobacion-declaracion-montevideo