Google advierte que la IA está creando virus informáticos que mutan en tiempo real para saltar las barreras de la ciberseguridad – Noticias ultima hora

Los investigadores de una empresa multinacional están descubriendo que los ciberdelincuentes están utilizando esta tecnología para reescribir código y adaptar dinámicamente las defensas de sus objetivos.

5 de noviembre de 2025 Inteligencia artificial que comanda los ciberataques y envía órdenes a los virus que los llevan a cabo, provocando que muten en tiempo real para sortear las barreras de la ciberseguridad. Esta es la advertencia lanzada este miércoles por el Google Threat Intelligence Group (GTIG), después de descubrir que los ciberdelincuentes ya no utilizan esta tecnología sólo como asistente, sino también como un cerebro autónomo que los potencia para ser más dañinos e invisibles mientras se lleva a cabo un ataque.

Por primera vez, Google describe una nueva generación de virus (o malwarecomo se les llama en el sector) que reescribe su propio código para adaptarse a las defensas, atacar sus puntos débiles y ocultar patrones que podrían activar sistemas de alerta, que se vuelven más difíciles de detectar. Lo hace a través de una conexión directa con modelos de lenguaje como Gemini, la IA de una empresa multinacional.

«Los agentes que operan con el apoyo de gobiernos y otros ciberdelincuentes están integrando y experimentando con inteligencia artificial en todos los sectores y durante todo el ciclo de vida del ataque», advierte.

Informe advierte que, aunque todavía está en su infancia, esto representa un “cambio de fase operativa” en el uso ofensivo de la IA. Los ciberdelincuentes y los grupos patrocinados por el Estado (Google cita a China, Rusia, Irán y Corea del Norte) han dejado de utilizar la tecnología como simple soporte técnico. Algo que esté documentado poco después de la aparición de ChatGPT y permitió a los ciberdelincuentes descartar errores que previamente habían revelado, como faltas de ortografía o malas traducciones, pero que escalaron a un nuevo nivel.

Ahora la IA se ha convertido en parte integral del ataque y multiplica su peligro. “Estas herramientas son capaces de generar guiones dinámico, ofusca su propio código para evitar la detección y utiliza modelos de inteligencia artificial para crear funciones maliciosas a pedido, en lugar de incrustarlas en el código. malware«, señalan los investigadores.

Estos cambios dinámicos también representan un punto de inflexión para el sector de la ciberseguridad. De forma similar a como ocurre con los virus biológicos, hasta ahora los investigadores han analizado el código malware Se utilizan en ataques para crear defensas específicas para bloquear sus ataques. Pero si estas modificaciones se producen en tiempo real, el antivirus no puede adaptarse a ellas con antelación.

IA, ¿engañada?

Técnicamente, modelos como Gemini deberían negarse a atender este tipo de solicitudes. Sus programas les impiden participar en actividades delictivas o perjudiciales para las personas. Sin embargo, Google ha descubierto que los ciberdelincuentes han encontrado una manera de sortear este veto. «Usan argumentos que se parecen a la ingeniería social», explica, refiriéndose a técnicas de manipulación psicológica que buscan engañar a las personas para que divulguen información o tomen acciones que amenacen su seguridad.

La clave es que estos engaños también funcionan con la inteligencia artificial. «Se ha observado a agentes haciéndose pasar por estudiantes haciendo ejercicios de ‘capturar la bandera’ o como investigadores de ciberseguridad. En ambos casos, están tratando de convencer a Gemini para que les proporcione información que de otro modo estaría bloqueada y que necesitan desarrollar ciertas herramientas», reconoce el informe de Google.

La multinacional confirma que ya ha dado de baja cuentas y proyectos asociados a este tipo de actividad y está tomando medidas para intentar evitar este tipo de abusos. «Google está comprometida con el desarrollo responsable de la inteligencia artificial y toma medidas preventivas para evitar actividades maliciosas», señala. Como parte de ese compromiso, también reveló estos hallazgos «para empoderar a los equipos de seguridad y promover una protección más sólida en todo el ecosistema».

Esto se considera una buena práctica clave en el sector de la ciberseguridad, ya que permite a los expertos prepararse para nuevas técnicas de ataque.

El mercado criminal de la IA

A medida que la IA avanza en el resto de sectores económicos y sociales, también lo hace su uso para actividades delictivas. «Durante este año, el mercado negro de herramientas ilícitas de inteligencia artificial maduró», dice el informe de Google. Su equipo identificó “una oferta multifuncional de herramientas diseñadas para facilitar phishingdesarrollo malware e Investigación de Vulnerabilidad” durante la investigación.

Compartir:
Facebook
Twitter
LinkedIn
Reddit

Noticias relacionadas