OpenAI: por qué su código fuente está siendo investigado

El diario The New York Times está realizando una indagación acerca de cómo se entrenaron los modelos de lenguaje desarrollados por Sam Altman y OpenAI.
OpenAI

ChatGPT es la Inteligencia Artificial más utilizada en todo el mundo y los usuarios suelen aplicarla para pedir información, que muchas veces no se sabe de dónde es obtenida. Esta es una de las razones principales por las que la aplicación desarrollada por OpenAI está siendo investigada, en lo que es una de las varias indagaciones que se están realizando contra la startup.

De hecho, es el código fuente de OpenAI lo que está siendo investigado por los abogados del diario The New York Times, el medio de comunicación más importante de Estados Unidos. Esto se produce en un contexto en el que la preocupación por el uso indebido e incluso ilegal de contenido periodístico por estas tecnologías es cada vez mayor e involucra a otras compañías.

Por qué está siendo investigado el código fuente de OpenAI

Los abogados del diario más importante están investigando la sala secreta en la que se almacena el código de la compañía que dirige Sam Altman, en lo que no es la única indagación, ya que también se está averiguando su involucramiento en prácticas ilegales, una tendencia en la que Microsoft y Nvidia también fueron incluidos.

Pero en este caso se trata de un objetivo específico que no está ligado a cualquier otra práctica que no sea la utilización de los contenidos que elaboran los diarios para desarrollar los modelos de lenguaje de Inteligencia Artificial, un apartado que consideran que fue esencial para el entrenamiento de ChatGPT y para que esta tecnología pueda dar respuestas sobre episodios reportados por el medio de comunicación.

OpenAI
El diario más famoso de Estados Unidos está investigando a la compañía detrás de la IA más poderosa del planeta.

De hecho, la finalidad de la actividad de los juristas está relacionada con encontrar el método por el que OpenAI logró integrar información de sus artículos (una acusación que The New York Times compartió en una nota que también incluyó a varios diarios de Estados Unidos) a sus sistemas de Inteligencia Artificial, en especial ChatGPT y sus modelos de lenguaje.

De esta manera, el principal problema que podría sufrir OpenAI es ser denunciada por haber violado los derechos de autor del diario, una acusación de la que el medio está convencido pero a la que todavía le faltan obtener las pruebas que están obteniendo los abogados. Además, esto podría involucrar muchos más medios en el futuro.

Cuál es el panorama actual de OpenAI y la investigación de The New York Times

Según lo que explicaron desde la empresa que está llevando a cabo la investigación, esta indagación acerca del código fuente tiene como máxima finalidad proteger su propiedad intelectual, algo que atraviesa a todo el ámbito periodístico, con excepción de los medios de comunicación que firmaron acuerdos con las compañías que impulsan aplicaciones de IA para que tuvieran acceso a su contenido.

De hecho, en una demanda que ya enfrentó OpenAI, la startup explicó que llevaron a cabo varios convenios con medios de comunicación de distintas partes del planeta, en especial de Europa y de Estados Unidos, acuerdos que posibilitaron que sus modelos de lenguaje accedieran a la información de los periódicos para ser entrenados y para obtener información vital para sus respuestas.

El estado de la investigación de The New York Times y su relevancia

El equipo de abogados de uno de los diarios más famosos del mundo está respaldado por el bufete Susman Godfrey, uno de los más reconocidos en Estados Unidos. Los representantes legales establecieron reglas estrictas para poder acceder al código y están investigando si OpenAI no utilizó más de 10 millones de artículos sin haber tenido un acceso legal a estos mismos.

Esta cifra, además de impactante, remarca cuál es la finalidad detrás de esta investigación: ser recompensados por una violación al derecho de la propiedad intelectual. Aquí cabe destacar que para acceder a los artículos del diario de Nueva York se debe contar con una suscripción mensual, en sistemas similares a los que adoptan varios medios de comunicación en América Latina.

sam altman
No es la primera demanda que deberá afrontar el equipo dirigido por Sam Altman.

Esta labor de los abogados está influida por un contexto en el que herramientas como ChatGPT logran crear textos de forma autónoma con información que, a veces, solo se encuentra disponible en artículos cuyo acceso está limitado para usuarios premium. Como en muchas oportunidades estos datos provienen de fuentes a las que OpenAI no podría haber conseguido, se inició una investigación.

Por qué está situación preocupa a varios medios de comunicación

Este panorama recientemente mencionado pone de manifiesto que la utilización de información de fuentes específicas de noticias remarca que existen funcionamientos por parte de las aplicaciones de IA que no son reconocidos. De este modo, se busca encontrar una ética en el manejo de los datos, para que sean más transparentes para el público.

De hecho, esto fue lo que planteó Elon Musk en una demanda que le realizó a OpenAI y a Sam Altman durante el primer semestre de este año. El magnate consideró que la compañía se desvió de su propósito original (un objetivo del que él había formado parte, ya que fue uno de los principales accionistas de la startup en el 2018).

elon musk ads
Elon Musk también había denunciado a la startup.

Esto se debe a que el dueño de Tesla considera que el código fuente de OpenAI debería estar abierto para todo el público, algo que no sucede y es por eso que se relaciona con la investigación reciente del medio de Nueva York. Además, esto explica por qué la noticia de que la startup está siendo indagada genera mucha expectativa en Estados Unidos.

Y es que los medios de comunicación elevaron su preocupación porque en esta época digital han perdido más credibilidad que con el papel. Su temor es que la utilización de sus artículos por parte de las compañías que desarrollan aplicaciones de IA para entrenar a sus modelos de lenguaje produzca una mayor desconfianza por parte del público. De momento, deberán esperar a la resolución de esta investigación.

ETIQUETA:

Compartir