El auge descontrolado de la IA en las empresas: Miedo a quedarse atrás y riesgos de ciberseguridad

El auge descontrolado de la IA en las empresas: Miedo a quedarse atrás y riesgos de ciberseguridad
Imagen de archivo: https://www.eldiario.es/

El auge descontrolado de la IA en las empresas: Miedo a quedarse atrás y riesgos de ciberseguridad

Foto: Archivo – Todos los derechos reservados

La adopción de la inteligencia artificial (IA) se está acelerando en las empresas, impulsada por el temor a quedarse rezagadas. Sin embargo, esta rápida implementación está generando importantes problemas de ciberseguridad y exponiendo a las organizaciones a nuevos riesgos.

Presión interna para adoptar la IA

Un estudio global de Trend Micro, realizado entre más de 3.000 directivos y responsables de departamentos de IT, revela que el 58% siente una fuerte presión interna para acelerar la implementación de la IA, incluso en contra de su propio criterio y con incertidumbre sobre sus riesgos.

Jonathan Lee, director de Estrategia de Trend Micro, explica: “Parece haber un miedo inconsciente a quedarse atrás si no implementas IA rápidamente. Los ejecutivos piensan que deben adoptarla, pero se está haciendo a una velocidad que impide la visibilidad y supervisión necesarias”.

“La IA en las sombras” y la falta de visibilidad

El informe de Trend Micro denomina a este fenómeno “la IA en las sombras”. Actualmente, el 32% de las organizaciones admite tener “poca o ninguna visibilidad” sobre qué sistemas de inteligencia artificial se están ejecutando en sus redes o a qué datos tienen acceso. Esto repercute directamente en la ciberseguridad, ya que las empresas estiman que solo logran identificar entre el 21% y el 40% de las brechas de seguridad asociadas a la IA.

Vladímir Kropotov, investigador principal de Trend Micro, afirma: “La IA se usa sin comprender que está en la organización. Su integración en productos de uso diario está expandiendo la superficie de ataque de las organizaciones”.

Incidentes en Amazon y Meta

Las consecuencias prácticas de esta situación ya se están viendo en algunas organizaciones, especialmente en las grandes tecnológicas. Amazon ha tenido al menos dos incidentes relacionados con el código generado por la IA. En uno de ellos, la IA de Amazon, denominada Kiro, decidió reconstruir por completo un sistema entero para solventar un fallo que podría haberse corregido con una intervención humana más precisa.

Además, más de 1.000 empleados de Amazon han firmado una carta en la que expresan su preocupación por el “despliegue agresivo” de herramientas de IA de la multinacional, denunciando que la imposición de usar IA está ralentizando su trabajo y generando código defectuoso.

En Meta, un error de un asistente de IA para empleados provocó una grave brecha de seguridad. Un empleado solicitó orientación para resolver un problema e implementó directamente la solución que le proporcionó la IA, lo que expuso una gran cantidad de datos confidenciales de usuarios y de la propia empresa.

Aumento de las filtraciones de contraseñas

Un informe de GitGuardian revela que en 2025 se filtraron un 34% más de contraseñas que en 2024, lo que relaciona directamente con “el rápido auge de la programación asistida por IA” y el hecho de que ahora sea una actividad que pueden realizar trabajadores no especializados.

Los investigadores de GitGuardian señalan que esto ha aumentado notablemente la superficie de ataque de las organizaciones. “La velocidad de creación está superando la madurez de la identidad. La IA acelera este problema. Facilita la estructuración de proyectos y la conexión de servicios, pero también hace más fácil reproducir patrones inseguros a gran escala”.

El “botón de apagado” no es la solución

Ante esta situación, muchas empresas consideran indispensable que la IA incluya un “botón de apagado” para detener su actividad en caso de detectar riesgos. Sin embargo, los expertos de Trend Micro advierten que tal mecanismo solo crea una falsa sensación de seguridad.

Vladímir Kropotov explica: “No sería un botón de apagado para la IA, sería un botón de apagado para tu negocio”. La integración ya es tan profunda que desconectar esta tecnología solo podría producir un fallo en cadena en muchas organizaciones. El investigador recomienda que nunca se le concedan más permisos que el de ser “un piloto automático avanzado”, siempre bajo la estricta supervisión humana.