sábado, 9 de septiembre de 2017

Los peligros de los asistentes personales como Siri, Google Home o Alexa


¿Para qué escribir una orden en un sistema cuando se puede ejecutar por voz? Las casas se están adaptado al concepto «smart» incluyendo asistentes personales dirigidos por voz, otros los llevamos en los bolsillos integrados en los smarpthone. Es tal el desarrollo de esta tecnología que ya no hace falta dar a un botón para que se activen el sistema al detectar una voz.

Sin embargo, mientras que los asistentes personales deslumbran a muchos usuarios, y prueba de ello son los 24 millones de máquinas habilitadas por voz en 2017 según Trend Micro, ¿hasta que punto se está cediendo la seguridad a un aparato? Esa misma pregunta se la hicieron unos investigadores chinos y pusieron en práctica sus dudas sobre los asistentes de las principales firmas como: Siri Assitant, Bixby y Alexa.

Los resultados de su análisis fueron que su sistema escucha la voz en frecuencias altas, ininteligible para los seres humanos, que ejecutaban las órdenes sin que la persona se encontrase presente. Tal es su sensibilidad que el equipo de la Universidad de Zhejiang pudo pedir a los asistentes móviles que realizaran llamadas sin que los dueños se dieran cuenta o que Alexa abriera la puerta de la casa con la técnica nombrada como «DolphinAttack».

Esta técnica utiliza un sistema de amplificación modular para que los asistentes reciban órdenes por voz, sin que puedan ser percibidas por el ser humano. Así, «DolphinAttack» puede atacar a Siri, Google Now, Alexa y otros asistentes personales. Por lo que un ladrón con un amplificador podría pedirle a Alexa desde el otro lado de la puerta que le abra, sin tener que forzar la cerradura.



Por otro lado, los asistentes están suscitando preocupación en cuanto a la privacidad de las personas se refiere. «Existen preocupaciones respecto a la privacidad y la seguridad, algo natural desde el momento en que estos dispositivos inteligentes comenzaron a controlar ciertos aspectos del hogar. El hecho de que estos dispositivos puedan escuchar nuestras conversaciones y llegar a grabarlas genera serios problemas de privacidad», señala un portavoz de Trend Micro.

Sin ir más lejos, Burger King y Google se vieron envueltos en un problema de una magnitud similar. La cadena de restaurantes de comida rápida emitió un anuncio en el que un empleado le preguntaba al asistente de voz del buscado qué era un Whopper. Google Home respondió acorde a la entrada de Wikipedia. Poco antes de su difusión a otras plataformas, se reescribió la entrada ante la capacidad de edición libre de la enciclopedia, «decorando» la definición de la calidad de la hamburguesa.

La compañía pensó que el anuncio sería bien recibido por el público, pero los usuarios de Google Home no compartieron en entusiasmo de Burger King porque sus asistentes respondían a la llamada del anuncio, sin que los propios usuarios lo hiciesen. Por lo que algunos usuarios se dirigieron a la plataforma de Wikipedia para vengarse. Según «The Verge», durante un tiempo los usuarios escucharon de sus dispositivos que la definición de Whopper era una hamburguesa que contenían uñas o rata.