En los últimos meses, OpenAI viene tomando decisiones importantes en sus políticas de uso y estrategias de la empresa, hasta llegó a despedir a Sam Altman, aunque luego revirtió la decisión. En este sentido, eliminó una sección que prohibía expresamente el uso de su tecnología con fines militares.
A partir de esta medida, que está dirigida especialmente a ChatGPT, el ejército estadounidense estará habilitado a aplicar su herramienta. Cabe destacar que OpenAI realizó un proyecto de cooperación con el Departamento de Defensa de los Estados Unidos, algo que explica el cambio abrupto de sus políticas.
Qué implica esta medida de OpenAI y el ejército
Anteriormente, en la página en la que informaba acerca de las aplicaciones que se le podían dar a ChatGPT, la entidad prohibía “actividades que conllevan un alto riesgo de daño físico”. Además, aquí detallaba específicamente el “desarrollo de armas” y sus fines “militares y bélicos”. En base a esto, el ejército (entre otras instituciones) no podía utilizarlo.
Más allá de lo firmado y del proyecto con el Departamento de Defensa, el portavoz oficial de Open AI, Niko Felix, aseguró que existen límites: “Cualquier uso de nuestra tecnología, incluso por parte del ejército, para desarrollar o usar armas, herir a otros o destruir propiedad, o participar en actividades no autorizadas que violen la seguridad de cualquier servicio o sistema, no está permitido”.
De todas maneras, cabe destacar que existe una orden judicial (el Congreso del país norteamericano está trabajando intensamente para regular la Inteligencia Artificial) que evita que se pueda utilizar la herramienta para “dañarse a usted mismo o a otros” y “desarrollar o usar armas”. Esto seguirá formando parte de las políticas de uso.
En qué consiste el proyecto entre OpenAI y el ejército
Como existen brechas de ciberseguridad a nivel nacional, problemas en los que la IA puede ayudar a defender a su país, según explicó el portavoz, se cambiaron algunas reglamentaciones. “Nuestra política no permite que nuestras herramientas se utilicen para dañar a personas, desarrollar armas, vigilar las comunicaciones, herir a otros o destruir propiedades. Sin embargo, hay casos de uso de seguridad nacional que se alinean con nuestra misión”, declaró.
En este sentido, Felix mencionó cuáles son aplicaciones que son compatibles: “Estamos trabajando con la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) para impulsar la creación de nuevas herramientas de ciberseguridad para proteger el software de código abierto del que dependen la industria y la infraestructura crítica”.
Finalmente, acerca de la modificación que realizaron, el portavoz explicó: “No estaba claro si estos casos de uso beneficiosos se habrían permitido bajo ‘militar’ en nuestras políticas anteriores. Entonces, el objetivo de nuestra actualización de políticas es brindar claridad y la capacidad de tener estas discusiones”.