Conflicto de derechos de autor: Investigan el código de OpenAI por posible uso indebido de contenido periodístico

Por jon
Publicado el 14 octubre, 2024

Un equipo legal del diario The New York Times ha iniciado una investigación en torno al código fuente de OpenAI, en un esfuerzo por determinar si la empresa detrás de ChatGPT ha utilizado contenido protegido por derechos de autor en el desarrollo de su modelo de inteligencia artificial. Bajo estrictas medidas de seguridad, los abogados inspeccionan una sala secreta de OpenAI, evaluando la posible violación de propiedad intelectual, un tema que podría tener amplias repercusiones en la relación entre medios y empresas tecnológicas.

Investigan el código de OpenAI en medio del conflicto de derechos de autor que enfrenta a medios y empresas de IA

El conflicto surge en medio de crecientes preocupaciones sobre el uso de contenido periodístico por parte de plataformas de inteligencia artificial sin la debida compensación a sus creadores. Los abogados del New York Times buscan aclarar si más de diez millones de artículos del periódico fueron utilizados sin autorización en el entrenamiento del modelo de IA de OpenAI.

Esta disputa podría sentar un precedente crucial en la industria tecnológica, ya que una resolución favorable para los medios obligaría a las empresas de inteligencia artificial a reconocer y compensar el uso de contenido protegido. Esto abriría la puerta a una nueva dinámica comercial entre medios de comunicación y plataformas tecnológicas, asegurando que los derechos de autor sean mejor respetados en un entorno digital en rápida evolución.

Investigan el código de OpenAI por posible uso indebido de contenido periodístico

 

El uso de datos por parte de OpenAI está bajo un escrutinio cada vez mayor, ya que la inteligencia artificial está profundamente integrada en la vida cotidiana a través de asistentes virtuales y sistemas automatizados. A medida que estas tecnologías avanzan, la pregunta sobre cómo se protege la propiedad intelectual de los creadores de contenido se vuelve más urgente.

El equipo legal del New York Times, en colaboración con el bufete Susman Godfrey, ha impuesto reglas estrictas para el acceso al código fuente de OpenAI, lo que subraya la seriedad del conflicto. Esta investigación no solo revela aspectos poco conocidos del trabajo de OpenAI, sino que también pone de relieve las preocupaciones éticas sobre el uso de datos en el desarrollo de IA.

El caso del New York Times no es aislado. Muchos medios de comunicación están alarmados por el potencial de la IA para difuminar la línea entre contenido original y generado por máquinas. Si plataformas como ChatGPT están utilizando artículos periodísticos para su entrenamiento sin el consentimiento adecuado, esto podría profundizar la crisis en el ya frágil ecosistema de los medios. La resolución de este conflicto será clave para definir el futuro de la relación entre la prensa y las tecnologías emergentes.