En publicaciones anteriores, analizamos las cuestiones de derechos de autor derivadas del entrenamiento de modelos de IA y las primeras resoluciones judiciales tanto del Reino Unido como de Alemania. Resulta interesante que, en Alemania, el tribunal de Múnich concluyó que la memorización en el modelo de IA podría constituir una reproducción (Vervielfältigung) según el §16 UrhG (Ley alemana de derechos de autor) y que los operadores son responsables de los resultados infractores porque ejercieron un control (Tatherrschaft o «dominio del hecho») sobre el sistema, tras haber confiado presuntamente en la excepción de minería de datos de la Directiva DSM. Este artículo se ocupa exclusivamente de los aspectos de los derechos de autor en la UE para los operadores de plataformas.
En la UE, el derecho de autor está ampliamente armonizado a través de la Directiva 2001/29/CE sobre la Sociedad de la Información, la Directiva (UE) 2019/790 sobre los derechos de autor en el mercado único digital (Directiva DSM) y otras. En comparación, el derecho de la UE no cuenta con una doctrina de «Fair Use» (uso justo) como la que existe en el derecho estadounidense. Las excepciones son limitadas y se restringen principalmente a las contempladas en el Art. 5 de la Directiva de la Sociedad de la Información y el Título II de la Directiva DSM.
Cuando se trata de la responsabilidad de los operadores de plataformas digitales que ofrecen servicios dentro de la Unión Europea, dos tipos particulares de medios digitales subidos por los usuarios plantean un riesgo especial de incurrir en responsabilidad por contenidos que infringen derechos de autor:
-
-
Materiales con derechos de autor explícitos.
-
Contenidos de usuario generados por IA que infringen derechos de autor.
-
¿Cuál es el riesgo de la IA Generativa (GenAI)?
Mientras que el uso infractor de materiales con derechos de autor explícitos suele ser mitigado directamente por los filtros de subida (upload filters), la situación es menos clara en lo que respecta a los contenidos generados por IA, ya que suelen operar en una zona gris de obras derivadas que pueden no ser detectadas por el software de filtrado actual.
¿Quién puede ser responsable por subir contenido infractor generado por IA?
La respuesta es: ¡depende de quién sea el operador de la plataforma! El Reglamento (UE) 2022/2065, conocido como Ley de Servicios Digitales (DSA, por sus siglas en inglés), tal como se indica en el considerando 12, se aplica a la infracción de derechos de autor y proporciona parte del régimen de responsabilidad, así como sus exenciones.
-
-
Art. 4 DSA – Operadores de «Simple transmisión» (Mere conduit): Existe una exención de responsabilidad para aquellos operadores que solo «transmiten información, no seleccionan al receptor y no seleccionan ni modifican la información».
-
Art. 5 DSA – Operadores de «Memoria temporal» (Caching): Existe una exención de responsabilidad si, entre otros puntos, el operador «actúa con prontitud para retirar la información o impedir el acceso a ella… tras tener conocimiento efectivo».
-
Art. 6 DSA – Operadores de «Alojamiento» (Hosting): Existe una exención de responsabilidad cuando el operador no es responsable de la información almacenada a petición de un destinatario del servicio y: a) «no tiene conocimiento efectivo de la actividad ilícita o del contenido ilícito y… no tiene conocimiento de hechos o circunstancias que revelen la actividad o el contenido ilícitos», y b) una vez que obtiene dicho conocimiento o consciencia, actúa con prontitud para retirar o impedir el acceso al contenido ilícito.
-
Los requisitos del Art. 6 DSA para la exención de responsabilidad
El caso fundamental C-324/09 — L’Oréal c. eBay (2011) arroja luz sobre cómo los operadores de «alojamiento» pueden beneficiarse de la excepción de responsabilidad del Art. 6 DSA, si:
-
La información fue almacenada a petición del usuario.
-
El operador no ha «desempeñado un papel activo que le permita tener conocimiento o control sobre los datos», lo que significa que tiene un papel pasivo y presta el servicio de manera neutral.
-
El operador no ha «dejado de actuar con prontitud» para eliminar el contenido infractor después de haber obtenido conocimiento.
El requisito del Art. 6 DSA de «no tener conocimiento efectivo de la actividad o contenido ilícito» plantea la cuestión de si el «conocimiento efectivo» es suficiente por sí solo. El Tribunal en L’Oréal c. eBay aclaró que no solo basta el conocimiento real, sino que «es suficiente, para que el prestador de un servicio de la sociedad de la información quede excluido de la exención de responsabilidad…, que tenga conocimiento de hechos o circunstancias sobre la base de los cuales un operador económico diligente debería haber identificado la ilegalidad en cuestión y haber actuado conforme a ello…».
El Art. 8 DSA – Sin obligación general de supervisión, pero…
El Art. 8 de la DSA estipula claramente que «No se impondrá a los prestadores de servicios de intermediación ninguna obligación general de supervisar la información que transmitan o almacenen, ni ninguna obligación general de buscar activamente hechos o circunstancias que indiquen actividades ilícitas…».
Sin embargo, el derecho nacional de los Estados miembros de la UE todavía puede prescribir una obligación «específica» de supervisión para determinada información, exigida explícitamente en el Art. 6(4) de la DSA: «Este artículo no afectará a la posibilidad de que una autoridad judicial o administrativa, de conformidad con el sistema jurídico de un Estado miembro, exija al prestador del servicio que ponga fin a una infracción o la impida».
El Tribunal en el caso C-18/18 Eva Glawischnig-Piesczek c. Facebook Ireland Limited ofreció orientación sobre lo que puede constituir una obligación de supervisión «específica«:
-
-
«Ordenar a un proveedor de alojamiento que retire información que almacena, cuyo contenido sea idéntico al contenido de una información que haya sido previamente declarada ilícita, o que bloquee el acceso a dicha información, independientemente de quién haya solicitado el almacenamiento de esa información«.
-
«Ordenar a un proveedor de alojamiento que retire información que almacena, cuyo contenido sea equivalente al contenido de una información que haya sido previamente declarada ilícita, o que bloquee el acceso a dicha información«.
-
De esto se deriva que una obligación de supervisión general monitorearía todas las subidas en busca de todas las posibles infracciones, mientras que una obligación de supervisión específica monitorearía todas las subidas en busca de contenido concreto. Esto deja a los operadores de alojamiento con un margen considerable de obligaciones, dependiendo de las normativas nacionales.
Proveedores de servicios de intercambio de contenidos en línea: ¡no están exentos bajo la DSA!
La Directiva sobre el Mercado Único Digital (DSM) 2019/790 define en su Art. 2 al Proveedor de servicios de intercambio de contenidos en línea (OCSSP, por sus siglas en inglés) como:
«…un prestador de un servicio de la sociedad de la información cuyo objetivo principal o uno de sus objetivos principales es almacenar y dar al público acceso a una gran cantidad de obras protegidas por derechos de autor u otros objetos protegidos cargados por sus usuarios, que organiza y promociona con fines lucrativos«.
Esta disposición está dirigida principalmente a las plataformas de redes sociales o sitios de intercambio de archivos de diferentes tamaños, y el Art. 17 de la Directiva DSM sirve aquí como lex specialis derogat legi generali frente a las estipulaciones de la DSA sobre responsabilidad intermedia, estableciendo:
-
- «Un prestador de servicios de intercambio de contenidos en línea realiza un acto de comunicación al público o un acto de puesta a disposición del público a efectos de esta Directiva cuando da al público acceso a obras protegidas por derechos de autor u otros objetos protegidos cargados por sus usuarios«.
- «Cuando un prestador de servicios de intercambio de contenidos en línea realiza un acto de comunicación al público o de puesta a disposición del público en las condiciones establecidas en esta Directiva, no será de aplicación la limitación de responsabilidad establecida en [el Artículo 6 de la DSA]…«.
En el Art. 17(4), la Directiva asigna responsabilidad primaria al OCSSP que ha permitido a los usuarios subir contenido de IA Generativa que infringe derechos de autor al declarar:
-
- «Si no se concede ninguna autorización [p. ej., contratos de licencia], los prestadores de servicios de intercambio de contenidos en línea serán responsables de los actos no autorizados de comunicación al público, incluida la puesta a disposición del público, de obras protegidas por derechos de autor y otros objetos protegidos…«.
El dilema de la supervisión de contenidos en la Directiva DSM
El Art. 17(8) de la Directiva DSM reitera, al igual que el Art. 8 de la DSA, que no debe haber obligaciones de supervisión general. Sin embargo, un OCSSP solo puede eludir la responsabilidad por contenido infractor subido por sus usuarios bajo el Art. 17(4) de la Directiva DSM si demuestra haber:
-
-
«Hecho sus mejores esfuerzos para obtener una autorización [licencia]».
-
«Hecho sus mejores esfuerzos, de acuerdo con los altos estándares de diligencia profesional del sector, para asegurar la no disponibilidad de obras específicas y otros objetos protegidos para los cuales los titulares de los derechos han proporcionado a los proveedores de servicios la información relevante y necesaria».
-
«Actuado con prontitud, tras recibir una notificación suficientemente fundamentada de los titulares de los derechos, para inhabilitar el acceso a las obras o demás objetos protegidos notificados, o para retirarlos de sus sitios web, y hecho sus mejores esfuerzos para impedir su carga en el futuro«.
-
La paradoja es que el derecho de la UE prohíbe la supervisión general, pero el Artículo 17 parece exigirla en la práctica para cumplir con las obligaciones de derechos de autor. Para identificar contenidos que potencialmente requieren una licencia y para emplear «altos estándares de diligencia profesional del sector», así como para identificar las subidas reincidentes de los usuarios, un OCSSP se ve obligado a utilizar un software de filtrado de subidas que puede constituir una «supervisión general».
Esta postura fue abordada por el Tribunal en el caso C-401/19 República de Polonia c. Parlamento Europeo y Consejo de la Unión Europea, donde el juez declaró que esto no constituye una obligación de supervisión general, porque el OCSSP no impide la carga de contenidos por iniciativa propia, sino «solo a condición de que los titulares de los derechos afectados les proporcionen la información relevante y necesaria con respecto a ese contenido». En pocas palabras, el Tribunal argumentó que se trata de una obligación de supervisión específica y no de una obligación de supervisión general. La solidez intelectual de este razonamiento puede depender del criterio de quien lo observe.
El dilema de los Derechos Fundamentales
Otro aspecto del caso C-401/19 República de Polonia c. Parlamento Europeo y Consejo de la Unión Europea fue el impacto de los filtros de carga de contenido en el derecho a la libertad de expresión establecido en el Artículo 11(1) de la Carta de los Derechos Fundamentales de la Unión Europea, los cuales se especifican aún más en el Art. 7 de la Directiva DSM y el Art. 14(4) de la DSA.
El Tribunal aclaró que un «sistema de filtrado que podría no distinguir adecuadamente entre contenido ilícito y contenido lícito, con el resultado de que su introducción podría llevar al bloqueo de comunicaciones lícitas, sería incompatible con el derecho a la libertad de expresión e información, garantizado en el Artículo 11 de la Carta, y no respetaría el equilibrio justo entre ese derecho y el derecho a la propiedad intelectual».
Además, afirmó que un OCSSP no está autorizado a realizar una evaluación independiente de la legalidad de los contenidos, sino que está obligado a confiar en la información proporcionada por el titular de los derechos. Por tanto, el OCSSP puede bloquear contenidos que sean «idénticos» o «equivalentes» a la información proporcionada por el titular de los derechos.
Sin embargo, la implementación técnica a menudo ignora las distinciones precisas del Tribunal, ya que es más barato y seguro para las plataformas simplemente bloquear todo lo que active una coincidencia. En la práctica, esto ha llevado a un exceso de cumplimiento (over-enforcement) por parte de los operadores de plataformas en los últimos años, claramente con el objetivo de mantenerse dentro de las exenciones de responsabilidad.
El aumento de contenido generado por IA ahora subido por los usuarios no facilita la situación para los operadores de plataformas. Más bien, podría ser todo lo contrario. La opción evidente es emplear reglas de detección de subidas aún más estrictas para identificar obras derivadas que puedan o no estar sujetas a protección por derechos de autor, a costa de correr casi con certeza problemas legales por un cumplimiento excesivo y, por lo tanto, adentrarse más profundamente en el territorio de los Derechos Fundamentales.


