El 42,5 por ciento de los intentos de fraude se realizan mediante inteligencia artificial
A medida que los ciberdelincuentes recurren cada vez más a la inteligencia artificial para ejecutar complejas estafas, el sector financiero se encuentra en una lucha por proteger a sus clientes y activos.
Los nuevos datos del informe Battle Against AI-Driven Identity Fraud de Signicat revelan que el fraude impulsado por IA constituye ahora el 42,5 % de todos los intentos de fraude detectados en el sector financiero y de pagos, lo que marca un punto de inflexión crítico para la ciberseguridad en la industria financiera. Además, se estima que el 29 % de esos intentos se llevan a cabo con éxito.
Este informe arroja luz sobre la rápida expansión de la amenaza que suponen las tácticas de fraude mejoradas por la IA, que incluyen el uso de deepfakes, identidades sintéticas y sofisticadas campañas de phishing. Estas técnicas avanzadas permiten a los estafadores operar a una escala y con un nivel de sofisticación sin precedentes.
Tendencias actuales en el fraude impulsado por la IA
• 42,5% de los fraudes detectados están relacionados con la IA: casi la mitad de todos los intentos de fraude se basan ahora en la IA, lo que demuestra la creciente sofisticación y prevalencia de estos ataques.
• Aumento del 80% en los intentos de fraude en general: el sector financiero ha experimentado un aumento del 80% en los intentos de fraude en los últimos tres años, impulsado en parte por la adopción de la IA por parte de los ciber delincuentes.
• Solo el 22% de las empresas han implementado defensas basadas en IA: a pesar de la escalada del riesgo, menos de una cuarta parte de las instituciones financieras han tomado medidas para implementar medidas de prevención del fraude basadas en IA, lo que expone una vulnerabilidad significativa.
Una respuesta débil: las entidades financieras, por detrás en sus defensas contra la IA
Frente a este panorama de amenazas en evolución, las instituciones financieras son cada vez más conscientes de que las defensas tradicionales están resultando insuficientes contra los ataques impulsados por la IA. El informe, elaborado en colaboración con Consult Hyperion, insta a las empresas a adoptar sistemas de detección basados en IA, mejorar los marcos de ciberseguridad y fomentar una mayor colaboración en el sector para adelantarse a la evolución de las técnicas de fraude.
Según el informe 2024 State of Bot Mitigation de Kasada, el 87% de los encuestados afirma que su equipo ejecutivo está preocupado por los ataques de bots y el fraude impulsado por IA. Sin embargo, el informe de Signicat revela que tres cuartas partes de los encuestados afirman carecer de la experiencia, los recursos y el presupuesto necesarios para hacer frente al fraude de identidad impulsado por IA. Esto sugiere que las empresas del sector financiero no están preparadas para esta amenaza.
Brecha en los conocimientos: las entidades financieras luchan por seguir el ritmo
“Naturalmente, las empresas están poniendo en marcha mecanismos de defensa contra el fraude de identidad impulsado por la IA, pero la amenaza es cada vez mayor. La aceleración de la digitalización que estamos viendo en los últimos años también ha hecho que los ataques sean más sofisticados y se ejecuten a escala. Los mecanismos que funcionaban hace unos años ya no son suficientes y urge que las empresas se planteen un enfoque múltiple, que combine, por ejemplo, las identidades electrónicas con el análisis de riesgos y, en caso necesario, la adopción de medidas de refuerzo. Sólo así podrán encontrar el equilibrio adecuado entre permitir el paso a los usuarios legítimos con menos fricciones e introducir medidas de seguridad adicionales cuando exista un riesgo”, afirma Pinar Alpay, Chief Product & Marketing Officer de Signicat. “Dado que la apropiación de cuentas es una de las formas más comunes de fraude de identidad, las soluciones de identidad digital seguras y sólidas también protegen a los usuarios finales y sus cuentas cuando inician sesión o aceptan documentos”.
El informe hace hincapié en la necesidad de un enfoque de ciberseguridad proactivo y de varios niveles que integre la IA con las medidas de seguridad tradicionales. Además, destaca la importancia de educar a empleados y clientes sobre las nuevas amenazas que plantea la IA en el panorama cambiante de la ciberdelincuencia.