¡Descubrí cómo WormGPT 4 y KawaiiGPT están transformando el cibercrimen en Argentina y qué podés perder!

Llevamos tiempo advirtiendo sobre el creciente riesgo que representan los ataques informáticos potenciados por la inteligencia artificial (IA). Según un reciente informe de Unit 42, la división de inteligencia de amenazas de Palo Alto Networks, herramientas como WormGPT 4 y KawaiiGPT están llevando los ciberataques a un nivel sin precedentes, tanto por su potencia como por su accesibilidad.

Estos modelos de lenguaje, carentes de filtros éticos y diseñados específicamente para llevar a cabo ataques cibernéticos, permiten a individuos sin formación técnica ejecutar acciones que anteriormente requerían conocimientos especializados. La inteligencia artificial ofensiva ya no es una mera posibilidad futura; es una amenaza real que aumenta tanto la velocidad como el volumen de las agresiones cibernéticas.

Lo más preocupante es que estas herramientas pueden automatizar actividades criminales en cuestión de segundos. Son capaces de redactar campañas completas de phishing, crear código malicioso funcional, generar scripts para el movimiento lateral, elaborar notas de ransomware y proporcionar instrucciones detalladas para realizar un ataque. Esto cambia radicalmente el panorama de la seguridad informática.

El informe de Unit 42 describe cómo WormGPT 4 opera bajo un modelo de suscripción sorprendentemente accesible, con precios que van desde 43 euros al mes hasta unos 190 euros por acceso ilimitado. Este servicio se distribuye a través de Telegram, donde ya cuenta con una comunidad de más de 500 suscriptores que comparten técnicas, resultados y mejoras, operando como un verdadero servicio profesionalizado del cibercrimen.

Por otro lado, KawaiiGPT representa un riesgo aún mayor debido a su naturaleza gratuita y de código abierto, lo que permite su instalación desde GitHub en cuestión de minutos. Esta facilidad de acceso lo convierte en una puerta peligrosa para usuarios inexpertos, quienes pueden, con solo unas líneas de código, generar phishing dirigido, herramientas de exfiltración o scripts preparados para infiltrarse en redes corporativas.

La combinación de rapidez y potencia de estos modelos de IA hace que sean extremadamente peligrosos. Un ataque que antes podía tomar horas de preparación ahora se puede ejecutar en minutos. Además, su capacidad para generar contenido convincente, tanto en lenguaje humano como en código, eleva la tasa de éxito de estos ataques y complica su detección.

Según advierte Unit 42, estos modelos ya permiten llevar a cabo campañas masivas de forma casi instantánea, con un nivel de personalización que dificulta enormemente el trabajo de defensa tanto para empresas como para particulares. Esta situación obliga a las organizaciones a replantear sus estrategias de seguridad.

Palo Alto Networks subraya la importancia de estar vigilantes respecto al uso de la inteligencia artificial dentro de las empresas. Se sugiere controlar accesos, reforzar la protección del correo electrónico y la navegación, capacitar a los empleados de forma constante y establecer normas internas claras sobre el uso de herramientas con IA. El objetivo de estas medidas es anticiparse a los riesgos y crear barreras que impidan que plataformas como WormGPT 4 o KawaiiGPT encuentren puntos vulnerables que explotar.

En este contexto, la rápida evolución de estas herramientas de ciberataque plantea un desafío significativo para la seguridad digital, no solo a nivel empresarial, sino también para usuarios individuales que, sin la debida preparación, podrían ser víctimas de estos nuevos métodos de ataque.

Te puede interesar:

Subir