WormGPT y FraudGPT: Los ChatGPT que usan los hackers para generar estafas con IA

WormGPT, e ChatGPT de la deep web

Tristemente, en dos años que lleva con nosotros la inteligencia artificial, ya nos hemos acostumbrado a que exista gente que aproveche sus bondades para generar contenido fraudulento. El último ejemplo, lo encontramos en los programas WormGPT y FraudGPT.

A simple vista, pueden parecerte dos nuevas IA destinadas a la creación de textos, imágenes o para conversar. Pero estamos hablando de dos herramientas nacidas en la Deep Web o Dark Web que son usadas por los ciberdelincuentes para crear estafas con IA tremendamente sofisticadas.

Los expertos en ciberseguridad, a nivel mundial, ya han definido tanto a WormGPT como a FraudGPT como los “clones  o gemelos malvados de ChatGPT” pues, permiten todas las funcionalidades que ya conocemos de la herramienta de IA de OpenAI, pero sin límites éticos ni delictivos.

Es decir, pese a sus sesgos, las herramientas más comunes de inteligencia artificial, como son ChatGPT, Gemini o Copilot, cuentan con barreras y restricciones que impiden, por ejemplo, que generen imágenes de gente totalmente desnuda, que podrían ser usadas con fines pornográficos.

De la misma forma, no te dará los pasos para la construcción de una bomba. Pero en WormGPT todo esto cambia. No hay ningún tipo de control sobre lo que en esta IA se hace, por lo que los ciberdelincuentes la usan para pedirle códigos de virus o, incluso, la generación de complejas estafas con IA.

@securiters ¿Sabías que existe un CHATGPT malicioso? Se llama WORMGPT ¿Qué te parece? #h4cker #h4king #ciberseguridad #ciberdelincuencia #estafa #chatgpt #deepweb #ciberataques #wormgpt #gptilegal ♬ Lady Killers II – G-Eazy

WormGPT ya es un conocido de las autoridades y FraudGPT es un programa más reciente, pero ambos han sido señalados un informe publicado en IJSR CSEIT, como “un punto de inflexión en los ciberataques maliciosos”

Para poder estar alerta, te explicamos qué son estos gemelos malignos y el tipo de estafas con IA que ya están circulando por la red. 

¿Qué es WormGPT? Un nuevo problema de ciberseguridad

¿Qué es WormGPT? Gemelo malvado de ChatGPT

Como se suele decir, “hecha la ley, hecha la trampa”. Y esta idea es la que han aplicado los hackers para poder saltarse las limitaciones que, como hemos dicho, tienen los modelos de inteligencia artificial generativa que todos conocemos.

Las posibilidades de la IA son infinitas, pero las empresas responsables de ChatGPT, Copilot, Gemini… no pueden permitir que un usuario cometa un delito o ponga en peligro la integridad de otros siendo ayudados por la IA. Están programadas para negarse a crear malware.

Sin embargo, los ciberdelincuentes han diseñado su propio ChatGPT y lo han bautizado como WormGPT, la nueva herramienta preferida por los hackers para intentar hacerse con nuestros datos personales.

En concreto, WormGPT es un buscador avanzado, pues funciona con IA, capaz de recopilar, analizar y resumir toda la información que circula por Internet.

Funciona gracias a un modelo de GPT (generative pre-training transformer) que ha sido entrenado con fuentes de malware y en el que no existe ningún tipo de limitación a la hora de generar contenido.

Ver esta publicación en Instagram

Una publicación compartida de UNITEL (@unitelbo)

WormGPT fue diseñado para que no tenga restricciones, usted solo está limitado por su imaginación”, aseguran sus desarrolladores jactándose. Y es que esto significa que un ciberdelincuente puede pedirle a la IA que genere código de virus, de ataques de phishing, envíos masivos de mensajes fraudulentos por correo electrónico, redes sociales, WhatsApp… Lo que sea.

“No nos extraña la velocidad a la que han surgido y se han hecho conocidas este tipo de herramientas maliciosas”, se lamenta Hervé Lambert de Panda Security. 

“La principal diferencia con el modelo original es que aquí sí se pueden crear -o más bien solicitar la creación – de códigos maliciosos, ya que se trata de herramientas que no están reguladas y no tienen filtros de seguridad”, añade.

FraudGPT: IA especializada en estafas de phishing 

FraudGPT IA phishing

FraudGPT es la última IA generativa nacida de las profundidades de Internet y que funciona bajo una suscripción de pago.

La clave de esta herramienta y lo que la convierte en tan peligrosa es que está especialmente entrenada para generar correos electrónicos de phishing casi imposible de identificar como fraudulentos.

Es una nueva evolución del phishing, del delito de suplantación de identidad e imagen de una marca o empresa. Porque ahora, gracias a la IA FraudGP, son capaces de crear de forma rápida todo lo que necesitan para lanzar su ataque:

  • Escribir el texto y mandar masivamente el correo electrónico, SMS, WhatsApp o mensajes en redes sociales.
  • Generar malware. En los casos de phishing, normalmente, un enlace que te lleva a una página fraudulenta para robarte tus datos.
  • La IA es capaz de clonar casi a la perfección la imagen y web completa de una empresa o marca que todos conocemos.

FraudGPT ya es una realidad que se mueve por la Dark Web y se distribuye en canales de Telegram.

Eso sí, como hemos señalado, este programa no es gratuito. Los ciberdelincuentes tienen que pagar por sus servicios mediante una suscripción mensual de 200 dólares

Estafas con IA: Capaces de clonar tu voz y tu imagen

Estafas con IA

Ahora que sabes de la existencia de IA generativas capaces de generar códigos de virus y malware muy sofisticados, nos parece importante que también conozcas las estafas con IA que ya están causando víctimas de robo de datos privados o fraudes económicos.

Porque la integración de la IA nos trae nuevas amenazas de ciberseguridad, la prevención e información es más importante que nunca. Estas son algunas de las estafas con IA ante las que estar alerta:

  • La estafa del “familiar en apuros” o “el familiar secuestrado”. Integra la generación de imágenes, vídeos y hasta voces falsas pero muy reales. Es decir, recibes un mensaje o un vídeo en el que puedes ver y escuchar a un ser querido que necesita ayuda y que te solicita el envío de dinero y de información. Pero todo es falso, una creación de la inteligencia artificial denominada deep fakes.

  • Si clonan voces y tu imagen en un vídeo falso, también pueden llegar a clonar tu rostro con tanto detalle que les ayude a desbloquear cuentas y dispositivos protegidos bajo el sistema Face ID.
  • Estafas en compras online. Unen el phishing o suplantación de identidad, con la generación de contenidos con IA. Así, los hackers son capaces de crear webs completas y plataformas de ecommerce en la que “vender productos falsos”.
  • IA para acceder a tus cuentas y perfiles. Recopilando información sobre una persona, la capacidad de gestión de datos masivos de la IA puede crear un perfil y adivinar tus contraseñas y claves de acceso.

Imágenes | Freepik.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *