
Investigadores en ciberseguridad han alertado sobre la creciente aparición de modelos de inteligencia artificial sin filtros, creados y distribuidos por ciberdelincuentes para fines maliciosos. Estos modelos, que prescinden de los límites éticos y técnicos incorporados en plataformas como OpenAI o Google, permiten generar contenido dañino como correos de phishing y malware. Aunque algunos fueron clausurados, como el conocido WormGPT, nuevas variantes siguen surgiendo y ganando terreno en entornos criminales.

Uno de los casos más preocupantes es la reaparición del nombre WormGPT, ahora utilizado como etiqueta para una serie de modelos sin conexión entre sí, pero con el mismo objetivo: eliminar cualquier restricción de seguridad. Dos nuevas versiones destacan en este escenario: una basada en Mixtral, atribuida a un usuario llamado xzin0vich, y otra que utiliza como base el modelo Grok, desarrollado por la empresa de Elon Musk, y distribuida por el usuario keanu a través de bots en Telegram.
Estas variantes no son simplemente modelos desde cero, sino capas construidas sobre arquitecturas legítimas, manipuladas mediante prompts internos diseñados para evitar los controles habituales. En el caso de keanu-WormGPT, por ejemplo, el sistema accede a la API de Grok y redefine su comportamiento mediante instrucciones ocultas, burlando las restricciones de uso para generar scripts maliciosos o ataques de ingeniería social.

El fenómeno ha despertado preocupación en la comunidad de seguridad informática, ya que demuestra cómo los avances en IA pueden ser revertidos en su propósito mediante ingeniería inversa y técnicas de manipulación del comportamiento del modelo. Esta tendencia evidencia no solo la sofisticación de los actores maliciosos, sino también la necesidad urgente de sistemas de protección más robustos en el acceso y uso de modelos de lenguaje.
Aunque no hay evidencia de participación directa de las empresas desarrolladoras, el uso de sus tecnologías en estos modelos ilegítimos representa un desafío considerable. La proliferación de estos sistemas sin barreras éticas o técnicas podría escalar si no se adoptan medidas eficaces de control, detección y prevención del mal uso de la inteligencia artificial.

Vía: Xataka
