spinner

El futuro de la ciberseguridad en IA está más próximo de lo que te imaginas

En este artículo vamos a detallar algunas de las tecnologías que se perfilan como las tendencias de los próximos años presentadas en las conferencias de referencia que se han dado este verano. En estos meses hemos visto avances en aspectos relacionados con ataques de ingeniería social basados en contenido sintético, legislación en el desarrollo de IA y nuevos ataques sobre machine learning.

Predicción de futuros engaños

Una de las áreas de más interés en la tecnología es la de aplicar machine learning a la ciberseguridad, con la aplicación de modelos para resolver problemas clásicos como pueden ser la clasificación de correo como spam o phishing, la detección de malware o la predicción de ataques de denegación de servicio a partir de los datos de red. Todo ello se pudo ver en la ScAINet, evento paralelo al simposio de seguridad de USENIX. En este congreso se vieron los continuos problemas que sufre la sociedad con el phishing y la lucha que se está llevando a cabo para poder detectarlos. En muchos casos se está atendiendo a la calidad de la formación que se da a los trabajadores, analizando la duración de las campañas y se crea un plan de seguimiento para eventos para así permitir la predicción de futuros engaños.

Interpretable Deep Learning under Fire. Fuente: Enlace

Por otro lado existe la propia seguridad de estos modelos en lo que se denomina adversarial machine learning, tecnología en la que puedes profundizar a través del post que se publicó desde el #SecLab de BBVA Next Technologies.

Security Issues and Challenges in Deep Reinforcement Learning. Fuente: Enlace

Ética en los modelos de machine learning

También se ha hablado mucho de la ética en estos modelos de machine learning, su legislación hasta ahora inexistente o la confiabilidad de la salida de los sistemas. Todo esto se pudo ver en diversas conferencias, una de las más importantes es la ICML celebrada en julio, donde uno de los workshops más interesantes fue el de Law & Machine Learning.

Grounding the media forensics and synthetic media detection discussion in global threats and solution prioritization. Fuente: Enlace

Evolución de la ingeniería social

Otro de los temas de gran interés durante este verano ha sido la evolución de lo denominado ingeniería social, donde el uso de determinadas aplicaciones permiten a un atacante perfeccionar su escenario mediante la generación de contenido sintético. Han aparecido herramientas tanto para texto (GPT-3), como para audio y video (con herramientas como StyleGAN2 o deepfakes), inundando las redes sociales de perfiles falsos pero con contenido multimedia simulando ser personas reales.

Si pensamos en organizaciones o personajes públicos de gran relevancia, ha aumentado el peligro de la suplantación de identidad cuando el objetivo de estos ataques son personas específicas donde se trata de saltarse procesos biométricos. Todo esto unido con las fake news, crea un ecosistema de desinformación que es necesario combatir. Es por ello que también se han ido presentando soluciones para protegerse frente a estos engaños. Algunas de las soluciones más prometedoras vienen por parte del workshop de AI de Facebook.

FRAMEWORK fake news operations detection. Fuente: FIREYE

Protección de sistemas de machine learning

En el ámbito más ofensivo, durante uno de los eventos más importantes del mundo de la ciberseguridad como es DefCon, se dio el village de AI donde se centraron en gran medida en la protección de sistemas de machine learning y en la privacidad de la información utilizada por estos sistemas. Se han propuesto medidas defensivas como marcas de agua o el entrenamiento robusto frente a adversarios para mejorar la defensa de los sistemas. También dejaron claro que iba a ser un tira y afloja entre atacantes y defensores. Por otro lado, con respecto a la privacidad de estos, las propuestas se centraron en el aprendizaje federado, la criptografía homomórfica o los sistemas multi-parte, entre otros. Todos ellos aún no han llegado a la madurez para salir a producción pero tendrán un gran impacto en el futuro.

SECRETS ARE LIES, SHARING IS CARING, PRIVACY IS THEFT. Fuente: Enlace

Todo lo mostrado sería un pequeño resumen de lo que nos ha parecido más destacable durante estos meses: Nuevos ataques de ingeniería social basados en contenido sintético, ataques sobre modelos de machine learning, legislación y moderación en el desarrollo de modelos de inteligencia artificial.

En próximos artículos podríamos profundizar en cada una de las tendencias mostradas y contar más detalles sobre las conferencias enlazadas, que probablemente marcarán una hoja de ruta para las nuevas investigaciones que se lleven a cabo.

Las opiniones vertidas por el autor son enteramente suyas y no siempre representan la opinión de BBVA Next Technologies.

¿Quieres saber que más cosas hacemos en BBVA Next Technologies?