Un informe de la empresa de tecnología F5 reveló que solo el 2% de las organizaciones globales está "altamente preparada" para integrar la Inteligencia Artificial (IA) en sus operaciones con los controles necesarios para su uso seguro. El estudio, que incluye las perspectivas de 800 líderes y estrategas de TI a nivel mundial, destaca que, aunque el 96% de las empresas ya empezó a implementar IA, la mayoría carece de la infraestructura adecuada para gestionarla de manera eficiente. Esta falta de preparación puede exponer a las organizaciones a riesgos significativos, ya que no cuentan con políticas robustas de gobernanza y seguridad multi-nube.
En Argentina, el panorama es aún más preocupante. Según Bernabé Crena, especialista de F5 LATAM, menos de 10 empresas locales tienen una postura clara y un plan de desarrollo de IA dentro de su corporación. Su grado de informalidad es muy grande. Solo el 0,01% de las empresas argentinas tiene un plan claro sobre el desarrollo y uso de la IA. "Lo que está pasando es un grado de informalidad muy grande, donde los empleados utilizan la IA de manera no estandarizada y fuera de la política de la compañía", comenta Crena.
Este uso descontrolado de la IA pone en riesgo a las organizaciones, especialmente cuando se comparten datos sensibles sin los controles adecuados. Un ejemplo ilustrativo dado por Crena muestra a un gerente de una empresa de transporte que alimentó una IA con información confidencial para optimizar rutas de entrega, sin darse cuenta de que exponía datos clave sin ninguna postura de seguridad. "Esto refleja la falta de conciencia sobre los riesgos", afirma.
Brechas de seguridad y riesgos en el uso de IA
El informe de F5 también destaca varios problemas clave en la implementación de la IA, que afectan tanto a las organizaciones globales como a las argentinas:
- Protecciones insuficientes: Solo el 31% de las organizaciones implementaron firewalls específicos para IA, una cifra que desciende al 18% entre las empresas con una preparación moderada, dejando los sistemas vulnerables a ataques.
- Gobernanza de datos deficiente: Apenas el 24% de las empresas realiza un etiquetado continuo de sus datos, lo que aumenta la probabilidad de sufrir ataques de adversarios que comprometan la privacidad e integridad de la información procesada por la IA.
- Diversidad de modelos de IA: El uso de herramientas de código abierto sin los controles adecuados, que emplea casi el 65% de las empresas, incrementa la superficie de ataque, exponiendo aún más los sistemas a los ciberdelincuentes.
Crena también subraya los riesgos inherentes a las herramientas de IA, como los chatbots, que, aunque avanzados, pueden ser fácilmente engañados por cibercriminales. "Un chatbot puede ser manipulado por un atacante, incluso si el usuario está autenticado con doble factor de autenticación", advierte el especialista.
Falta de especialistas en seguridad de IA
Uno de los factores que agrava la situación tanto a nivel global como local es la escasez de profesionales especializados en seguridad de IA. "No solo en Argentina sino en el mundo, hay muy poca gente que sepa del tema. Al ser tan incipiente y cambiar tan rápido, las empresas necesitan un especialista que se dedique full-time a la seguridad de la IA, no un generalista", sostiene Crena. La falta de talento en este ámbito es un desafío clave que complica la adopción segura de la IA, ya que las empresas deben estar preparadas para gestionar las amenazas emergentes de manera rápida y efectiva.
Las recomendaciones de F5 para una IA más segura
Para abordar estos riesgos, el informe de F5 propone varias medidas para que las empresas puedan mejorar la seguridad y la escalabilidad de sus sistemas de IA:
- Diversificación de modelos de IA: Utilizar tanto herramientas comerciales como de código abierto, siempre asegurando que haya una gobernanza adecuada para mitigar los riesgos.
- Integración de seguridad específica para IA: Implementar firewalls de IA y formalizar la gobernanza de datos, como el etiquetado continuo, para proteger los flujos de trabajo y la información procesada.
- Tratar la IA como una función central: Ver la IA no solo como una herramienta, sino como una capacidad integrada que potencia toda la organización, con un enfoque en la seguridad.
Estas recomendaciones buscan que las empresas no solo adopten la IA de manera efectiva, sino que también establezcan controles adecuados para evitar los riesgos asociados, permitiendo así una implementación más segura y productiva.