Google Bard: información sensible e inteligencia artificial

El creciente uso de las herramientas de inteligencia artificial despierta preocupaciones a diestra y siniestra, y el caso en Google no parece ser nada distinto, dado que la misma empresa recientemente advirtió a sus empleados sobre algunas cuestiones relacionadas al uso de Bard (chatbot con motor de IA propio de la firma) y otras herramientas rivales como ChatGPT.
Logo de Google Bard.

El creciente uso de las herramientas de inteligencia artificial despierta preocupaciones a diestra y siniestra, y el caso en Google no parece ser nada distinto, dado que la misma empresa recientemente advirtió a sus empleados sobre algunas cuestiones relacionadas al uso de Bard (chatbot con motor de IA propio de la firma) y otras herramientas rivales como ChatGPT.

Una de las cosas que Google solicitó a sus trabajadores con urgencia, es no ingresar ningún tipo de dato confidencial en chats de IA. Esta medida está justificada bajo la política de protección de datos de la empresa y se debe principalmente a dos cuestiones: primero, existen revisores humanos que leen los intercambios que se producen entre usuarios y chatbots; segundo, una IA tranquilamente puede reproducir datos absorbidos durante su entrenamiento, ambas cuestiones entonces implican un doble riesgo de fuga. 

En esa misma línea, Google también indicó a sus ingenieros que eviten “el uso directo de código de programación que pueda ser generado por los mismos chatbots”. De esta forma se pone de manifiesto lo que se está transformando en un estándar de seguridad para las empresas a nivel global: educar y advertir al staff sobre el uso de estos programas. Pero, ¿a qué se debe la tendencia? 

Según una encuesta de la firma Fishbowl (realizada en EE.UU con 12.000 personas) alrededor del 43% de los profesionales empleaba ChatGPT u otras herramientas de IA sin decirle a sus jefes, y es fácil entender porqué dado que estas herramientas pueden acelerar mucho las tareas. El problema, como ahora las empresas empiezan a enseñar a sus empleados, es que todo contenido generado por una IA puede incluir información sensible, datos confidenciales, información incorrecta o falsa o incluso pasajes de materiales protegidos por derechos de autor. 

Tanto Google como Microsoft comenzaron a ofrecer herramientas a sus clientes comerciales para segurarles que no habrá datos propios en modelos públicos de IA. Con respecto a esto, Yufuf Mehdi, director de Marketing de Microsoft, declaró: “Tiene sentido que las empresas no quieran que su personal use chatbots públicos para trabajar y adopten posturas debidamente conservadoras para proteger sus datos y los de sus clientes”. 

ETIQUETA:

Compartir