spinner

Las plataformas conversacionales no piensan en entornos multidispositivo

La introducción de nuevos canales, propician entornos con nuevos modelos de interacción. Pero las plataformas que nos permiten gestionar estos canales, tienen algunas limitaciones que condicionan la adaptación de los sistemas a estos nuevos entornos.

Uno de los objetivos de las interfaces conversacionales es utilizar un canal mucho más humano para interactuar con el usuario. Sencillo de decir, pero resulta un reto muy potente para la industria, tanto a nivel tecnológico como de experiencia de usuario.

Además, en su condición de asistentes, deben acompañar al usuario a lo largo de todas sus interacciones a través de sus dispositivos: móviles, TV’s, asistentes domésticos, wearables, coches,… hasta el router. Por ello, pretenden estar presentes y disponibles allí donde el usuario lo necesite, en cualquiera de sus canales: texto, voz, con apoyos visuales, etc.

Nuevos canales, nuevas interacciones

Para extender el uso de este tipo de tecnologías, los grandes fabricantes de asistentes conversacionales, que también lo son de dispositivos de voz domésticos, proveen a la comunidad plataformas que permiten el desarrollo de aplicaciones y su integración en dichos asistentes.

Estas plataformas han permitido que servicios de terceros puedan ofrecer algunas de sus funcionalidades a través de estos nuevos canales, creando entornos en los que el usuario interactúa con sus servicios. En estos entornos, los modelos de interacción pueden incluir el uso de múltiples canales, gracias a la incorporación a ese entorno de múltiples dispositivos.

La multicanalidad o la omnicanalidad son ya parte de flujos de interacción habituales para muchos usuarios que, cada vez más, esperan hablar con un sistema global y no con un grupo de agentes independientes. Esperan sistemas dependientes del contexto en el que operan, que conozcan sus posibles canales y que sean capaces de percibir al usuario a través de ellos. Básicamente esperan el ordenador de 2001: Una odisea en el espacio. Estos nuevos entornos, vienen acompañados de nuevos retos, nuevas funcionalidades que pueden verse limitadas por decisiones de diseño de los fabricantes.

Procesos de autenticación en asistentes de voz

Uno de los primeros ejemplos de las limitaciones de los asistentes de voz que surgieron al introducir servicios de terceros, fue la necesidad de incluir flujos de autenticación para esos servicios. Flujos en los que el usuario debe introducir sus credenciales a través de una interfaz segura.

Para incluir esos servicios, las plataformas que ofrecen los fabricantes permiten controlar el flujo de la conversación desde la lógica implementada por el desarrollador, lo que ofrece un sin fin de posibilidades. Sin embargo, esta funcionalidad opera bajo una serie de restricciones que pueden condicionar el caso de uso.

Por ejemplo, la ventana de tiempo en la que el usuario espera una respuesta (limitada por diseño), no es comparable con la que necesita para realizar un proceso de autenticación básico (usuario/contraseña). Esta “limitación”, podría solucionarse incorporando un método de comunicación entre el asistente y la lógica del desarrollador, que permitiese iniciar de nuevo la conversación a partir de un evento externo. Pero, por el momento, solo los usuarios pueden iniciar la interacción, no es posible lanzar eventos personalizados al asistente para que este sea invocado.

Solución a medias

Para solucionar dichos flujos, los fabricantes han tenido que crear servicios específicos que permitan trasladar la autenticación del usuario entre dispositivos. Estos servicios centralizan la información necesaria para poder identificarse y que sus dispositivos puedan interactuar, cuando el usuario lo requiriese, con los servicios de terceros.

Pero la solución es un parche, y un parche viable porque empresas como Google controlan tanto la plataforma, como los canales utilizados (Google Assistant, Android, WearOS, Chromecast, …). Y es un parche porque fuera de los Google’s, esta solución no escala para otras interacciones y además, no resuelve el verdadero problema: el usuario no interactúa con un sistema único, sus dispositivos no se conocen entre sí, son interfaces individuales. Cuando apago las luces a través del Google Home de mi salón, no solo me responde él, sino también el de mi cuarto, porque también me ha oído.

Por tanto, si tu objetivo es diseñar y desarrollar un sistema dependiente del contexto del usuario, que utilice varios dispositivos y que traslade la interacción entre ellos (multicanal u omnicanal), es posible que, por el momento, tengas que desarrollar tu propio asistente.

Las opiniones vertidas por el autor son enteramente suyas y no siempre representan la opinión de BBVA Next Technologies.

¿Quieres saber que más cosas hacemos en BBVA Next Technologies?

Utilizamos cookies propias y de terceros para mejorar nuestros servicios, brindarle una grata experiencia y mostrar a los usuarios publicidad relacionada con sus preferencias mediante el análisis de sus hábitos de navegación. Si continúa navegando por este sitio web, consideramos que acepta su uso. Puede cambiar la configuración u obtener más información accediendo a nuestra política de cookies aquí.