Anthropic enseñó cómo funcionan los prompts de Claude

La estrategia de Anthropic permite conocer las instrucciones para el funcionamiento interno de sus herramientas de Inteligencia Artificial.
Anthropic

Como parte de una estrategia que busca ser más abierta con el público con cómo funciona su IA, Anthropic, la empresa detrás de Claude, que es una de las inteligencias artificiales generativas que más compiten con ChatGPT, ha cambiado su sistema para que todas las personas puedan descubrir cómo funcionan sus prompts.

La medida realizada por Anthropic no tiene precedentes en el campo de la IA y se espera que más compañías sigan sus pasos, ya que es un modo de comprender cómo actúa una tecnología que aún sigue generando desconfianza en algunos sectores. Esto se llevó a cabo como una respuesta a las solicitudes de los propios usuarios de Claude. 

La importancia de la medida de Anthropic

Una de las razones por las que este avance fue celebrado por una parte de la comunidad tecnológica se relaciona con el hecho de que la empresa se ha vuelto mucho más transparente frente a su público, algo que ha sido demandado por varios usuarios a otras compañías de Inteligencia Artificial, que se caracterizan por no enseñar cómo es su funcionamiento interno. 

Por el momento, Anthropic compartió los prompts de los sistemas que guían sus modelos de lenguaje más poderosos, como es el caso de Claude 3.5 Opus, Claude 3.5 Sonnet (la principal competencia de ChatGPT) y Claude Haiku. De esta manera enseñaron cómo realizan indicaciones para que las preguntas y respuestas sean más moderadas. 

Por ejemplo, es posible observar cómo se han limitado las respuestas violentas, sesgadas o polémicas desde la propia institución con el objetivo de obtener un tono más moderado, evitando futuros problemas públicos. Estos prompts pueden ser bastante prolongados, llegando incluso a tener más de mil problemas.

claude 3.5 sonnet
Claude 3.5 Sonnet es una de las aplicaciones de IA más poderosas de todo el mundo.

En este sentido, son capaces de reconocer cuáles son los temas más controversiales y, de esta manera, identificar que aquí sus respuestas no deben tomar partido ni emitir juicios, sino que se debe priorizar la entrega de una información clara y precisa en las que los pensamientos sean “cuidadosos”.

Cabe destacar que esta estrategia de Anthropic podría ser una manera de exigirle a sus competidores que realicen lo mismo y sean más abiertos con su funcionamiento. OpenAI, a través de ChatGPT, es la que recibe un mayor número de críticas porque es imposible conocer el funcionamiento de la IA más utilizada del planeta.

Las prohibiciones de Anthropic para sus modelos de lenguaje

Una de las curiosidades más importantes es que los prompts les prohíben identificar o incluso mencionar a personas que aparecen en imágenes. De alguna manera, se les exige ser totalmente ciegos en estas situaciones. Es por eso que si se les solicita que lo hagan pueden llegar a responder que no son capaces de realizar esta actividad.

A su vez, siguiendo con las prohibiciones, tampoco tienen permitido abrir videos o URLS, mientras que tampoco realizan reconocimientos faciales. Esta es una estrategia para evitar problemas legales y que ha sido compartida para todos los usuarios.

ETIQUETA:

Compartir