La seguridad será un requisito indispensable en la IA
El éxito reciente de la Inteligencia Artificial, IA, en aplicaciones ha llevado a una mayor adopción de la IA en muchos escenarios, y, en consecuencia, a que sea cada vez más ubicua.
Las soluciones impulsadas por IA se utilizan cada vez más en la toma de decisiones críticas y, al integrarse como un componente en sistemas, se vuelven dependientes de las decisiones de sus algoritmos. Por ello, estos nuevos desarrollos requieren de manera urgente que sean seguros y sus decisiones fiables.
Tal y como desvelamos el pasado viernes en el webinar sobre el Informe de Seguridad en la IA de AMETIC, si durante el ciclo de vida de los sistemas de IA no se cumple alguno de los cinco pilares para caracterizar la seguridad de un sistema de información (confidencialidad, integridad, disponibilidad, autenticidad y no repudio) el sistema será vulnerable y quedará alterado el correcto funcionamiento del modelo, poniendo en riesgo la confianza que tienen los usuarios en los modelos; causando sesgos y efectos discriminatorios.
Disponer en un futuro de aplicaciones basadas en IA seguras será un requisito indispensable para que estas puedan ser puestas en funcionamiento. Actualmente y debido a la incipiente tecnología nos encontramos con algunas carencias que son necesarias resolver. Por un lado, nos enfrentamos a la escasa investigación sobre la IA y sus aplicaciones de forma segura, además de la falta de validación de ataques contra modelos IA en entornos de producción. Por el otro, la falta de herramientas de Benchmarking, Baselines o Checklist enfocadas a testear, establecer o auditar la seguridad de la IA.
La IA es una herramienta de presente y futuro, de modo que debe desarrollarse de forma segura, minimizando todo impacto previsible. Este nuevo paradigma se presenta como una clara oportunidad para el desarrollo de nuevas tecnologías que consoliden la IA segura.
Antonio Cimorra, director de Agenda Digital y Estudios Sectoriales de AMETIC
Antonio Cimorra de AMETIC