OpenAI prohibirá que los políticos utilicen ChatGPT para su campaña

Para evitar la difusión de imágenes falsas o alteradas, OpenAI también limitará la utilización de sus generadores DALL-E.
OpenAI

De cara a un 2024 en el que se celebrarán muchas elecciones políticas, OpenAI prohibirá que los candidatos utilicen ChatGPT en su campaña para evitar la desinformación. Esto será especialmente estricto en Estados Unidos, que eligirá nuevo Presidente y es un país en el que las fake news tienen una larga historia desde Cambridge Analytics en 2015. 

En este sentido, para evitar que se realice un mal uso de la Inteligencia Artificial, principalmente a través de la escritura de noticias falsas y sensacionalistas y su posterior difusión en redes sociales, OpenAI comunicó que implementará una estricta estrategia para “prevenir abusos” y brindar transparencia desde el servicio que ofrece. 

Cómo será la medida de OpenAI

En 2024, se votará para Presidente en más de 50 países y, por la magnitud de las naciones que llevarán a cabo estos procesos, involucrarán a casi la mitad de la población mundial. Es decir que el target de los políticos será de varios billones de personas. De hecho, muchos expertos consideran que es el año electoral más grande de la historia. 

“Nuestro enfoque es continuar nuestro trabajo de seguridad de la plataforma, elevando información electoral precisa, aplicando políticas mesuradas y mejorando la transparencia”, explicó OpenAI a través de su blog en el que también comparte actualizaciones sobre el funcionamiento de sus plataformas.

ChatGPT será la herramienta de OpenAI que más limitada estará para los políticos.

De manera similar, Microsoft, que es una de las empresas accionistas de ChatGPT, informó que prohibirá que se creen chatbots que cambien su identidad y se hagan pasar por los candidatos. “No permitiremos que la gente cree aplicaciones para campañas políticas y lobby”, detallaron. 

A su vez, OpenAi, que desarrolló DALL-E 1,2 y 3, uno de los generadores de imágenes más avanzados y realistas hasta la actualidad, avisó que esta herramienta tiene varias medidas de seguridad para rechazar solicitudes de crear contenido que se asemeje a personas reales. “Trabajamos para anticipar y prevenir abusos relevantes, como deep fakes engañosos, operaciones de influencia a escala o chatbots que se hacen pasar por candidatos”, notificaron.

Qué más está realizando OpenAI

Para que las personas tengan un acceso más claro a la información, trabajarán para que ChatGPT brinde una fuente en cada una de sus respuestas, principalmente en aquellas relacionadas a la política y a noticias que pueden influir en el voto de la gente. 

“La transparencia en torno al origen de la información y el equilibrio en las fuentes de noticias pueden ayudar a los votantes a evaluar mejor la información y decidir por sí mismos en qué pueden confiar”, mencionaron. 

Además, pretenden implementar un “clasificador de procedencia”, lo que permitirá a los investigadores y periodistas determinar si una imagen fue diseñada por una Inteligencia Artificial con el fin de evitar la difusión de fotografías falsas. 

ETIQUETA:

Compartir