Menú Cerrar

LOS DERECHOS DE AUTOR EN LOS TRABAJOS REALIZADOS CON AYUDA DE LA INTELIGENCIA ARTIFICIAL

LUIS MARIA VELASCO 

                                                           “Nada está perdido si se tiene el valor de proclamar que todo esta perdido y hay que empezar de nuevo” Julio Cortázar.

I.  Inteligencia sin límites. El ChatGPT

Una de las características clave del mundo moderno es el avance tecnológico, que se acelera constantemente. Los desafíos, por lo tanto, llegan más rápido que lo deseado. 

Tanto se ha hablado de inteligencia artificial, un campo totalmente desregulado. “¿Quién decide quien decide?, se pregunta la gente. No hay reglamentación alguna sobre quien esta al mando. No hay límites ni reglas.

Los avances en inteligencia artificial abren el debate sobre los riesgos tecnológicos: ¿se acerca un futuro catastrófico? Los descubrimientos preocupan a empresas y gobiernos, generan una fuerte reacción de la sociedad y llevan a los investigadores a buscar nuevas formas de control. Entre los riesgos están: la difusión de noticias falsas, la desinformación, la reducción del mercado laboral y, el mas temido, la perdida del control de la civilización. 

Es conocido que con la aparición de cada nuevo medio se vaticino la muerte del anterior: que el diario mataría al libro, que la televisión mataría a la radio, que internet mataría a todos. La escritura no mato a la memoria (“Fedro”, de Platón). 

La aparición del ChatGPT -3,5-(GENERATIVE, PRE-TRAINED TRANSFORMER), en escena desde noviembre del 2022, trajo una especie de conmoción en muchas áreas. Ya hay demandas en contra de la empresa que lo ofrece, prohibiciones por parte de algunos gobiernos o duelos y quebrantos de trabajadores de distintos rubros, amen de la convulsión que ha generado en el ámbito educativo. 

¿Que es el ChatGPT? Es uno- quizás el mejor al momento- de tantos grandes modelos de lenguaje (LLM, por la sigla en inglés- Large Language Model- también llamado lenguaje de gran tamaño, surgido en 2018, ver Wikipedia), o sistema de inteligencia artificial que permite desarrollar una conversación (casi) como si se estuviera conversando con una persona: responde a nuestras preguntas de modo(medianamente) digno. La información que alimenta su “cerebro” (sus algoritmos, que le permiten “aprender” de manera autónoma) esta dada por una ingente cantidad de datos que la empresa creadora (Open AI) le ha suministrado como insumo.

Espécimen en un punto arrogante, a veces, no sabe algo, lo inventa-los especialistas, con mesura, dicen que sufre de “alucinaciones”. Además, en función de experiencias previas algo incomodas, esta versión del ChatGPT tiene un sesgo hacia lo políticamente correcto y su caudal de información se detiene en el año 2021.

La verdad es que esta novedad nos trae fuertes disquisiciones de tipo ético. Porque parece que el chat puede completar de modo (más o menos) satisfactorio muchas de las actividades que implican información y discurso, como la mayoría de las personas, pero en mucho menos tiempo. O sea que tendremos que encontrarle la vuelta para lo que producimos sea mejor que (medianamente) digno o (más o menos) satisfactorio. Y, en lugar de simular que hicimos sin ayuda lo que le hemos pedido al chat que hiciera, deberemos aprender a usar la herramienta para obtener resultados superiores.

En cualquier caso, ya se ha probado que no se puede confiar a ciegas en el ChatGPT. Y no solo porque “alucine”: también puede ocurrir que repita o derive información incorrecta. Tal cual ocurre con Wikipedia, el ChatGPT parece ser una fantástica herramienta para comenzar un trabajo, una investigación, un proyecto, una codificación, pero no para terminarlo. Las personas humanas, hay que decirlo, debemos controlarlo. 

Así el Laboratorio de Innovación e Inteligencia Artificial (IALAB), una iniciativa de la Facultad de Derecho de la Universidad de Buenos Aires, posee un equipo compuesto por expertos formados en distintas disciplinas, que abordan el desarrollo y los alcances de los nuevos instrumentos que se incorporan a lo cotidiano, elaboro el informe “ChatGPT vs. ChatGPT4: ¿Imperfecto por diseño?”.

En el documento enumeran algunas limitaciones de la herramienta. Entre otras cosas, destacan que no posee conocimiento de los eventos posteriores a 2021(ya advertido), solo trabaja con procesamiento del lenguaje natural y no puede procesar imágenes o videos; ante ambigüedades, supone lo que el usuario pretende obtener como respuesta en lugar de realizar preguntas aclaratorias, contiene sesgos de maquina injustos o discriminatorios, además de carecer de contexto y no tener capacidad de razonamiento. De todas formas, evidencian que ChatGPT4 presenta mejoras sustanciales en las tasas de acierto, que se darán en forma vertiginosa y progresiva en los sistemas de inteligencia artificial cada vez más sofisticados e integrados entre sí.

El surgimiento de este tipo de herramientas suele causar preocupaciones por su alcance y distopias donde las maquinas reemplazan a los humanos.

II. Regulación:

Si algo caracteriza a la innovación tecnológica es que corre mucho más rápido que la asimilación que de ella tiene el ser humano. Lo que suele llegar tarde en estos casos es la regulación por parte de los gobiernos, la comunidad internacional y los lideres mundiales. Tal es así que un grupo de expertos en inteligencia artificial y ejecutivos de la industria tecnológica pidieron una pausa de seis (6) meses en el entrenamiento de los sistemas de IA, argumentando que se trata de una potencial amenaza para la humanidad.

Muchos organismos nacionales e internacionales, como la Organización Internacional del Trabajo (OIT) y UNESCO, realizaron esfuerzos para analizar y desarrollar soluciones que fortalezcan las oportunidades que ofrece la IA y mitigar los riesgos en el empleo y las ganancias.

Desde UNESCO brindaron en los últimos años una serie de recomendaciones vinculadas con la ética de la inteligencia artificial para que los Estados las implementen de manera voluntaria. Así ha dicho:” la aplicación es fundamental ya que, según como sea utilizada, la IA puede tener repercusiones tanto positivas como negativas en las sociedades, en el medio ambiente y la vida humana. Sobre todo, en la mente humana, debido a que, en parte, su uso puede influir en el pensamiento, las interacciones y la toma de decisiones”, como lo advierte el especialista en TIC de la Oficina para América Latina y el Caribe del Instituto Internacional de Planeamiento de la Educación (IIPE) de UNESCO, Fernando Salvatierra. 

Dicho especialista enumera los riesgos: 

plagio académico

la protección de datos personales

el sesgo cognitivo

la discriminación

el acceso asimétrico a la tecnología

la insuficiente educación digital

Todo ello puede agravar las divisiones y desigualdades existentes en el mundo, dentro de los países y entre ellos, ya sea mediante el acceso equitativo a las tecnologías de la IA y el disfrute de los beneficios que aportan, como mediante la protección contra sus consecuencias negativas. Es fundamental que, desde las políticas públicas, se pueda acompañar el desarrollo de la IA y de plataformas inteligentes que permitan integrar datos para la toma de decisiones de manera adecuada. 

Antecedentes en Europa:

Para que una compañía digital pueda operar en Europa debe tener una política de privacidad transparente, con el consentimiento como eje central. ‘¿Cumple OpenAI, propietaria de ChatGPT, con la normativa? ¿Saben los usuarios como se utilizan sus datos? Expertos lo ponen en duda: hay motivos para la incertidumbre.

En pocos meses la inteligencia artificial ChatGPT, capaz de generar textos, imágenes o música a partir de datos existentes, ha pasado de ser una herramienta minoritaria, mas cercana a un experimento de laboratorio, a un boom, y de ella preocupa, precisamente, la rapidez de su desarrollo, la propiedad intelectual, su utilización para desinformar, la ciberseguridad o su política de protección de datos.

El primero en dar la voz de alarma sobre la posible falta de privacidad fue Italia. El pasado 31 de marzo 2023, dicho país anuncio el bloqueo del uso del ChatGPT por no respetar la ley de protección de datos de los consumidores, y la apertura a una investigación a OpenAI, a la que además solicito una serie de medidas concretas. 

El tema, ya es candente en Europa, el Comité Europeo de Protección de Datos ha creado un grupo de trabajo para fomentar la cooperación e intercambiar información sobre las acciones de las autoridades de protección de datos de los distintos países miembros, de Islandia, Liechtenstein y Noruega, que tienen, asimismo, dudas al respecto.

Desde España también se ha mostrado preocupación por un posible incumplimiento de la normativa. La Agencia Española de Protección de Datos (AEPD) anuncio el pasado 13 de abril, que iniciaba de oficio, actuaciones previas de investigación a la empresa estadounidense.

La medida tomada por la AEPD , tomo una medida, que si bien puede parecer excepcional, se encuentra regulada por el Reglamento General de Protección de Datos (RGPD), que se aplica en toda la Unión Europea pero los Estados siguen siendo soberanos en la materia.

Lo que esta haciendo ahora la AEPD, es pedir información a OpenAI para valorarla y establecer si el tratamiento de datos de esta empresa es acorde con las normas europeas y españolas. Su fin principal, es averiguar si OpenAI está transfiriendo datos de los usuarios a Estados Unidos, ya que Europa considera que el envió de datos a ese país (EEUU), no es seguro, porque allí no existe una protección equivalente y no se cumplen los mínimos de la UE.

La IA en el arte

La aparición de obras basadas en “La joven de la perla” , del artista barroco Johannes Vermeer, que adquiere nueva apariencia con la inteligencia artificial, la creación del primer manga japones ilustrado con esta tecnología o un reciente concurso que consagro ganador a un trabajo realizado con un programa de generación de imágenes, son hitos recientes que ponen en crisis las nociones de creación y autoría en un arte atravesado por plataformas que agilizan la creación artística o la escritura, como la resonante aparición del ChatGPT.

Existen, además, muchas criticas a plataformas como Stable Diffusion o DALL-E, entrenadas a partir de imágenes, sin tener derechos de uso, que no están reguladas legalmente, lo que impulsa un debate, necesario para evitar los plagios, en forma automática, generados por el software.

Por todo ello, y ante la aparición de textos falsos de grandes escritores, la emisión de teorías científicas aparentemente bien fundamentadas, el lanzamiento de noticias falsas impecablemente vestidas de verdaderas, el generar movimientos y alzamientos sociales incontrolables, alentar creencias delirantes con argumentos simuladamente sólidos. 

Las más peligrosas las describen el historiador y antropólogo israelí Yuval Harari, autor del “Homo Deus” y “De animales a dioses”, y los estadounidenses Tristán Harris y Aza Raskin (dos especialistas en tecnología que desarrollaron varios de los mas avanzados sistemas vinculados a Internet y la telefonía móvil y hoy se dedican a fomentar la ética en el mendo tecnológico).

Estos pensadores presentaron el abril 2023 un documento titulado “Por que la inteligencia artificial podría devorar rápidamente toda la cultura humana”. Hace tiempo que están preocupados por la cuestión e investigan sobre ella. Y sostienen: “la IA tiene la capacidad de hackear y manipular el sistema operativo de la civilización”, señalan en su texto. “Al adquirir el dominio del lenguaje, la IA se ha apoderado de la llave maestra de la civilización, capaz de abrir las bóvedas de los bancos hasta los santos sepulcros”.

Harari, Harris y Raskin llaman a detener y repensar, cuanto antes, la desbocada carrera disparada por la euforia tecnológica que, liberada de todo escrúpulo moral y alimentada por desmedidas ambiciones económicas, pone al mundo y la vida tal como los conocemos y experimentamos al borde de un precipicio.

Ello y mucho más, es compartido en el sitio FUTURE OF LIFE, por influyentes pensadores de distintas disciplinas, que exploran los riesgos de la tecnología, quienes, también llamaron a “pausar de inmediato y durante al menos durante seis (6) meses el entrenamiento de los sistemas de IA más potentes”

Este llamado proviene de mentes que se desempeñan habitualmente, en lo que llamaríamos “macro realidad”, y que, a diferencia de quienes practican la jerga macroeconómica, tienen la lucidez, la decisión y el compromiso de descender a la micro realidad, que es el espacio preciso en el que la IA ya muestra sus efectos.

III. Los Derechos de autor de una “obra de arte creada por la IA en EEUU y Argentina:

El arte- un cuadro o imagen- creado por Inteligencia Artificial, no tiene copyrigth. Esto dictamino un fallo judicial fechado el 18/agosto/2023, firmado por Beryl A. Howell, juez del juzgado de Columbia. La determinación del copyrigth (derecho de autor), en lo producido por la Inteligencia Artificial será sin duda, en un futuro inmediato el gran tema a discutir. 

De hecho, a poco de iniciada la huelga de autores y guionistas de Hollywood el pasado 14 de julio, el uso de la IA para producir guiones fue uno de los puntos centrales del reclamo. Y fue entonces cuando uno de los directivos de la industria planteo un debate entre ambas partes, respecto del copyrigth de los guiones que se produzcan de manera conjunta: por humanos y por maquinas.

Es decir, que porcentaje corresponderá a los guionistas y que porcentaje a lo producido por la inteligencia artificial, y quien se queda con este último porcentaje.

El fallo que señale, define que el arte creado por la inteligencia artificial no tiene copyrigth se dio en una demanda iniciada por Stephen Thaler, titular de Imagination Engines, y dueño de un sistema de Inteligencia Artificial, Creativity Engines (Maquina de la Creatividad). Esta máquina explico Thaler es “autora” de “Una nueva entrada al paraíso”, una obra de arte “creada de forma autónoma por un algoritmo informático que ejecuta Creativity Machine”.

Thaler quiso registrar la obra ante la Oficina de Derechos de Autor (EEUU), estipulando que- según el- el copyrigth es de su máquina, y el beneficio económico que pudiera resultar de ella, se lo transfieran a él, por ser su propietario.  La negativa a esto fue porque la obra carecía de un requisito básico: no tenía autoría humana alguna. Ante esto Thaler los demando. En su fallo, el juez planteo la siguiente cuestión:” ¿Un trabajo generado en su totalidad por un sistema artificial y sin participación humana califica para tener copyrigth o no? De todas formas, dio la razón al Organismo Público, porque “la ley de derechos de autor de los Estados Unidos protege únicamente las obras de creación humana”. Y dejo en claro que, al menos por ahora, “copyrigth” es sinónimo de creación humana y ese concepto sigue vigente aun cuando la ley de derechos de autor evoluciono y seguirá haciéndolo. 

Igualmente, en su fallo el juez Howell dedico un párrafo respecto de la Inteligencia Artificial y a los derechos de autor. “Sin duda, estamos ante nuevas fronteras en cuanto a derechos de autor a medida que los artistas incorporan la Inteligencia Artificial como una herramienta más, en la creación de nuevas obras visuales y artísticas”. Y prosigue: “Esto generara preguntas desafiantes; cuanto aporte humano es necesario para calificar de “autor” a quien use un sistema de Inteligencia Artificial en su obra, o cual será el alcance de la protección legal sobre la obra resultante, como evaluar la originalidad de las obras generadas por la Inteligencia Artificial si esos sistemas pudieron haber sido “educados” en base a obras preexistentes desconocidas”.  

El uso de información generada automáticamente por el ChatGPT, sin citar adecuadamente la fuente se considera un “acto de plagio”. Además, el uso de este chat en trabajos universitarios no permite el desarrollo de actividades criticas y analíticas. 

El ChatGPT -Desventajas

Cuando utilizamos el ChatGPT todas las conversaciones, preguntas, datos revelados, quedan guardados en el sistema. 

Si un ciberdelincuente accediera al perfil del usuario del ChatGPT, podría descargar todas sus conversaciones y preguntas y, si este ha revelado mucha información o de carácter sensible, puede ponerlo en riesgo. 

Veamos un ejemplo del funcionamiento contado por Marcos Galperin, el CEO de MERCADO LIBRE quien descubrió que el ChatGPT4, no acertó en los datos que este aporto sobre su perfil (ver IProfesional del 28/marzo/23 en internet).

Destacando su peligrosidad, Sam Altam, actual CEO de la Empresa OpenAI, remarco, en una entrevista, que tanto reguladores como la sociedad deben involucrarse con la tecnología para protegerse contra posibles consecuencias negativas para la humanidad.

Altman, reafirmo que esta particularmente preocupado de que estos modelos (ChatGPT4) puedan usarse para la desinformación en gran escala. Ahora que están mejorando en la escritura de códigos de computadora, podrían utilizarse para ataques cibernéticos ofensivos, según declaro a ABC News (Fuente:” IProfesional 28/3/23, internet). 

La IA, como aquel robot soñado que resolvería todos nuestros problemas, no distingue todos nuestros problemas, no distingue verdad de mentira. Amenazados con vivir en un mundo de espejismos, la salida es recuperar nuestra humanidad y volver a buscarnos, en carne y hueso, el ojo en el ojo, la única manera de saber si lo visto o leído sobre lo que alguien cree o dice es, de verdad lo que cree que dice. 

Conclusión sobre el Copyright:

La Ley de Propiedad Intelectual (N°11.723), actualmente, determina que únicamente “personas físicas” pueden ser sujetos de autoría, es por ello que, el contenido o información por ChatGPT no está sujeta a los derechos de autor.

Asimismo, el articulo 17° de la Constitución Nacional establece que: “Todo autor o inventor es propietario exclusivo de su obra, invento o descubrimiento, por el termino que le acuerde la ley”. Sin embargo, como lo señala la Organización Mundial de la Propiedad Intelectual (COMPI), no existe, aun, una definición universalmente aceptada de la IA, lo que complica, en este tópico, los derechos de autor.

La legislación sobre propiedad intelectual se refiere a las creaciones de la mente humana, protegiendo los intereses de los innovadores y creadores, otorgándoles derechos sobre sus creaciones. Sus objetos de protección incluyen los derechos de propiedad industrial, por un lado, y los derechos de autor, por el otro.

En nuestro régimen de Propiedad Intelectual (Ley N° 11.723), se utiliza el termino “autor”, no nos queda dudas de que el legislador se refiere a “una persona humana”. 

Así el art.4° de la Ley N° 11.723 establece que:” Son titulares del derecho de propiedad intelectual: a) el autor de la obra, b) sus herederos o derechohabientes”. Lo dicho desplaza, la posibilidad de otorgar a la IA la titularidad de un derecho de propiedad intelectual, a tenor de la legislación vigente. 

De su lado, y respecto de la imagen, la citada ley en su articulo 31° dispuso:” El retrato fotográfico de una persona no puede ser puesto en el comercio sin el consentimiento expreso de la persona misma y muerta esta, de su cónyuge e hijos o descendientes directos de estos, o en su defecto, del padre o de la madre”. 

En la Argentina, y en la mayoría de los países, la regulación vigente requiere que exista un autor o inventor humano para que una obra sea susceptible de ser protegida por derechos de autor y para que un invento sea patentable. Por lo que no hay, todavía, normas que específicamente regulen como puede protegerse una obra o invento generados por la IA con casi o nula intervención humana.

El mundo jurídico deberá hacer un esfuerzo para establecer principios sobre los cuales regular esta y otras herramientas que utilizan la IA para minimizar los riesgos que su uso abusivo o ilegitimo puede generar.

Paises en todo el mundo se apresuran a elaborar regulaciones para el desarrollo de la tecnología. La Unión Europea abre el camino con su Ley sobre la IA, que espera aprobar en los próximos meses. 

La legislación necesariamente deberá adecuarse para extender el alcance de estos derechos intelectuales y también, probablemente deban incluir otras figuras como el “prompter” o persona que interactúa con la IA. (creaciones del intelecto humano, a la fecha).

Para ello, resulta imprescindible conocer y comprender como funciona esta tecnología y actuar con un criterio preventivo.

FUENTES:

*Infobae 23/abril/23

*“Sapiens animales o dioses” de Yuval Noah Harari,

*“Future of Life Institute”, sitio de internet, futureoflife.org.

*Disposición N° 2/2023 “Recomendaciones para una Inteligencia Artificial fiable” de la Subsecretaria de Tecnologías de la Información, dependiente de la Secretaria de la Innovación Publica

*Ética de la Inteligencia Artificial de la UNESCO

*Conferencia de Asilomar

*Reuniones del Consejo de ministros de la OCDE

*Reunión ministerial sobre Comercio y Economía Digital del G20