Por el potencial que tiene pero también por lo que es capaz de hacer en la actualidad, la Inteligencia Artificial tiene la capacidad de convertirse en una gran aliada para los ciberdelincuentes, que tienen a disposición una serie de herramientas para engañar a las personas, ya sea con la generación de textos, imágenes, audios o documentos.
Para evitar ser víctima de un delito digital, aquí te presentamos cuáles son las estafas más comunes que realizan los criminales de Internet al utilizar la Inteligencia Artificial, explicando qué factores deben considerarse al recibir una propuesta, un mensaje o incluso al ver una publicación en alguna red social.
Qué hacer ante una estafa con Inteligencia Artificial
Al ser consultado sobre los problemas que genera esta tecnología, Willy Ugarte, que es docente de una maestría en Data Science en la Escuela de PostGrado UPC, remarca que la “IA puede usarse para ayudar a los profesionales de ciberseguridad a tratar la cada vez mayor complejidad de los sistemas modernos, así como la gran cantidad de datos creados por ellos, e intentar estar por delante de los ciberatacantes”.
En base a este panorama, el especialista remarcó algunas posturas que los usuarios deben tomar en Internet: “Mi recomendación es estar siempre atentos a las últimas noticias sobre estafas virtuales y, al encontrarse con alguna, no acceder a ningún enlace, no brindar información secreta como claves de tarjetas de crédito y hacer caso omiso a las llamadas desconocidas”.
Las 3 estafas más comunes con Inteligencia Artificial
Audios y videos deepfake
La primera de las estafas está relacionada con una capacidad avanzada de las herramientas de Inteligencia Artificial, que ya son capaces de generar y editar vídeos y audios en tan solo unos segundos con un grado de realismo tan convincente que incluso logran engañar a muchas personas si no se les presta atención.
En cuanto a los audios, cabe destacar que los sistemas de Inteligencia Artificial están entrenados para poder imitar con mucha precisión la voz de una persona, de modo que, con tan solo una pequeña indicación sobre lo que se desea comunicar a través de la voz, pueden crear un audio en el que engañen a las personas exigiendo dinero o algo similar. Incluso pueden ir acompañadas de una imagen falsa.
Lo mismo sucede con los videos. A partir de una serie de indicaciones se le puede solicitar a una herramienta que genere un contenido audiovisual de alta precisión, al que luego se le puede adjuntar un audio. De esta manera, los engaños son cada vez más realistas y tienden a que las personas caigan en las mentiras y las estafas que estos proponen.
Hay un ejemplo reciente, ya que ocurrió durante los primeros meses del año, en el que un ejecutivo de Hong Kong perdió más de 20 millones de dólares luego de que una serie de ciberdelincuentes lo engañaran adoptando la identidad de su jefe. De esta manera, lograron que les transfiriera un monto elevado de dinero.
Phishing
La segunda de las estrategias criminales que usan los ciberdelincuentes se relaciona con el envío de mails a las direcciones de correo electrónico. Esto es cada vez más fácil de realizar gracias a herramientas como Gemini o ChatGPT, que pueden generar texto en tan solo unos segundos con solo una indicación de los usuarios.
El problema es que esta clase de aplicaciones volvieron mucho más profesional a estos delitos, que antes podían distinguirse de manera más sencilla porque los textos podían venir con problemas de ortografía o sintaxis, además de contar con una apariencia un poco más sospechosa. Es por eso que ahora cuesta más distinguir los mensajes maliciosos de los emails informativos que envían las compañías.
Lo que suele suceder con estas estafas es que los mensajes, que tienen una apariencia humana y los contenidos están presentables frente a los usuarios, es que vienen con links maliciosos que fueron confeccionados para robarle la información confidencial a las personas a través de distintas estrategias.
Es por eso que siempre es necesario realizar un control sobre la procedencia de la cuenta que envía el correo electrónico antes de hacer clic en un link. Además, en caso de no estar seguro si se trata de una estafa siempre hay que tomar la misma postura: si no se está confiado, se desiste y se ignora el mensaje.
Controles de identidad
Así como la Inteligencia Artificial logró evolucionar su sistema en los últimos años, la tecnología para las transferencias bancarias se modificó acorde a los avances digitales y a la utilización, especialmente, de billeteras virtuales para una gran parte de las transacciones. Y la mayoría de las aplicaciones requieren de una huella o de una fotografía para validar el ingreso desde un celular.
De esta manera, gracias a las herramientas que logran generar imágenes (no necesariamente la DALL-E que incluye ChatGPT de OpenAI, sino otras más relacionadas a la apariencia humana), muchos ciberdelincuentes logran acceder a una fotografía más que realista de las personas a las que quieren engañar para acceder a sus cuentas bancarias.
Si bien esto no siempre es posible y muchas veces requiere de que la propia persona engañada acceda a un cambio, hay plataformas en las que se vende la información ya truchada de habitantes de distintas partes del mundo. Por ejemplo, en algunos canales de Telegram (el segundo servicio de mensajería más usado del mundo después de WhatsApp) ya se venden documentos o identificaciones falsas.
Debido a esta razón, lo recomendable es nunca acceder a entregar la imagen personal o una fotografía del documento siempre y cuando no se trate de una aplicación oficial. Por ejemplo, sitios como Mercado Pago o Modo están conectados a RENAPER, que es la agencia estatal que controla que la identidad de la persona se vincule con la del DNI.