spinner

Descubre los últimos whitepapers del #SecLab

Este post recopila las últimas investigaciones realizadas por el Laboratorio de Seguridad de BBVA Next Technologies, dando a conocer los diversos problemas de seguridad que pueden ocurrir en los modelos de machine learning. En primer lugar se describe los problemas asociados a generar contenido sintético y por último, las vulnerabilidades de los propios modelos de machine learning.

Whitepaper Contenido Sintético

El contenido sintético es una nueva y apasionante área de investigación que ha experimentado grandes avances en los últimos tiempos. Este campo tiene el potencial de revolucionar completamente la forma en que creamos y consumimos contenido. Este se define como aquel contenido multimedia (audio, texto, imagen y vídeo) que es posible crear con tecnologías de inteligencia artificial lo más realistas posibles, pudiendo llegar a ser indistinguibles por un ser humano.

Ejemplos de contenido sintético son los deep fakes y las fake news. El presente whitepaper recopila las técnicas más conocidas para crear y detectar contenido sintético de cada uno de los tipos de contenido multimedia.

Índice

1. Introducción

2. Audio sintético: no creas todo lo que oigas

3. Texto sintético: prediciendo tu siguiente palabra

4. Imágenes sintéticas: engañando al ojo humano

5. Video sintético: el séptimo arte del engaño

6. Conclusiones

 

 

Whitepaper Adversarial Machine Learning

Los algoritmos de inteligencia artificial cada vez influyen más en nuestro día a día, tanto es así que nuestras vidas pueden llegar a depender de ellos. Su seguridad se ha convertido en el punto de mira de los atacantes, ¿estamos seguros de que esos modelos están protegidos? Este whitepaper describe el Adversarial Machine Learning, el cual se encarga de estudiar y categorizar estas vulnerabilidades en presencia de un adversario malicioso.

El whitepaper pone el foco en las principales técnicas de ataque y defensa de la taxonomía, incluyendo herramientas opensource con los que automatizar ataques y defensas. Por último, se incluye un tutorial de Adversarial Robustness Toolbox, la herramienta opensource más avanzada de Adversarial Machine Learning.

Índice

1. Introducción

2. Ataques de extracción

3. Ataques de inversión

4. Ataques de envenenamiento

5. Ataques de evasión

6. Tutorial: Adversarial Robustness Tool (ART)

7. Futuro y conclusiones Referencias

A. Resumen de herramientas opensource

 

Si estos temas son de tu interés, no dudes en seguir nuestro blog, ponerte en contacto con nosotros si necesitas más información o comentar por redes sociales (Twitter y Linkedin).

Fuente Imagen destacada: Unsplash

Las opiniones vertidas por el autor son enteramente suyas y no siempre representan la opinión de BBVA Next Technologies.

¿Quieres saber que más cosas hacemos en BBVA Next Technologies?