2023 siempre será recordado como el año de la democratización de la IA en nuestra sociedad. Años antes, esta tecnología se había introducido de una manera más discreta en algunos sistemas informáticos o procesos de recogida y análisis de datos. Sin embargo, desde la llegada de Chat GPT, su expansión corre como la pólvora y cada vez más empresas se plantean invertir en IA para mejorar su eficiencia y productividad, o economizar costes.
Hoy en día se encuentran aplicaciones de la IA en diferentes campos y áreas de negocio, desde la automatización de procesos, hasta los servicios de atención al cliente, el análisis financiero o el desarrollo de productos. Algunas marcas incluso utilizan la IA para simular escenarios y optimizar el diseño de nuevos productos.
Según el informe “La Inteligencia del Talento” de OBS Business School, en España más del 9% de empresas emplean soluciones de este tipo. En el caso de las grandes compañías, la cifra asciende al 40,7%. Son datos que demuestran las oportunidades de desarrollo y formación existentes en esta área, pero también la posibilidad de nuevas amenazas asociadas a la IA, especialmente en el ámbito de la ciberseguridad y protección de datos.
El mal rendimiento de la IA puede llegar a activar nuevas brechas de seguridad y vulnerabilidades. En este sentido, es importante arrojar luz a una interesante cuestión: ¿Qué deben hacer los CISOS ante las nuevas amenazas y riesgos de la IA?
La IA está en el punto de mira de los ciberdelincuentes
Una IA “sin vigilancia” puede tener graves consecuencias para las organizaciones en materia de Ciberseguridad. No disponer de un sistema avanzado de detección, investigación y respuesta ante amenazas (TDIR) puede dar pie a importantes riesgos en la seguridad de datos: fugas o envenenamiento de datos, robo de propiedad intelectual, ataques de la cadena de suministro, inferencia de pertenencia o manipulación de los inputs mediante la inyección de prompts.
Durante la Gartner® Security & Risk Management Summit 2024, el VP Analyst d Gartner, Bart Willemsen, recordó que en 2023 dos de cada cinco organizaciones sufrieron una brecha de IA en sus sistemas; y una de cada cuatro, fueron víctimas de ataques maliciosos.
Si tenemos en cuenta los datos de una encuesta anterior realizado por la misma consultora, “AI in Organizations Survey” Gartner®, en 2021 el 73% de las organizaciones ya disponían de cientos o miles de modelos de IA implantados en sus procesos de trabajo, sistemas de Análisis de Datos y Detección del fraude, o Automatización robótica de procesos (RPA), etc.
Sin duda, estos son muchos sistemas susceptibles a ser vulnerados o comprometidos.
Aún así, cerca del 68% de las empresas analizadas creen que la IA implica más beneficios que peligros. Precisamente por ello, la mayoría de empresas optan por controles activos de los riesgos, la privacidad y la seguridad en sus proyectos de IA.
Las organizaciones que implementan esta tecnología de vanguardia están dando prioridad a la Seguridad de la Información para garantizar la privacidad y prevenir los riesgos de la IA.
Cerca del 66% de las organizaciones cuentan con un grupo de trabajo para hacer frente a los riesgos de la IA e incrementar la resiliencia de estos sistemas frente a los ataques. Disponer de un equipo externo especializado en la detección, análisis y respuesta suele ser la opción más rentable y segura para poder prevenir las amenazas y evitar posibles ciberataques en sus sistemas de IA.
¿Cómo pueden los CIOS y CISOS hacer frente a los nuevos riesgos de la IA?
Durante el último Security & Risk Management Summit de Gartner® quedó reflejada la necesidad activar una nueva cultura de la concienciación y protocolos específicos para prevenir los ciberataques a la IA.
Es importante desarrollar programas de awareness para los equipos encargados de implementar y gestionar la IA en la organización, pero sobre todo, es fundamental activar el AI TRiSM «Artificial Intelligence Trust, Risk and Security Management» (Gestión de Confianza, Riesgo y Seguridad de la Inteligencia Artificial).
Se trata de un marco desarrollado por Gartner para ayudar a las organizaciones a abordar los desafíos asociados con la adopción y el uso de la IA, una solución que ayuda a gestionar los riesgos e incrementar la fiabilidad y resultados de esta tecnología.
El AI TRiSM puede mejorar notablemente la seguridad y resultados de la IA si se enfoca como un deporte de equipo que involucra a profesionales de diferentes disciplinas y departamentos.
Los CISOS deben comunicarse de manera activa y estratégica con sus equipos de IA. Y es que solamente el 51% de los profesionales dedicados a la gestión e implementación de esta tecnología se preocupan por los riesgos asociados a la misma en lo que a datos e información se refiere.
Para el año 2026, las empresas que practiquen la transparencia en los temas relacionados con la IA, confianza y seguridad, verán una mejora del 150% en sus objetivos empresariales y en la aceptación por parte de los usuarios (en comparación con los resultados del 2022).
¿Te gustaría descubrir cómo proteger tu IA de los ciberataques? Incrementa el nivel de madurez digital de tu organización, introduciendo controles de seguridad desde la primera fase del ciclo de vida de tu sistema de Inteligencia Artificial. Dispón de un equipo multidisciplinar externo que te ayude a monitorizar tus plataformas impulsadas por esta tecnología.
Escríbenos a [email protected] y recibirás asesoramiento de nuestro equipo de gestión de amenazas.