¿NOS ESPÍAN SIRI, ALEXA Y GOOGLE ASSISTANT?

Seguro que más de una vez te lo has preguntado, teniendo en cuenta que ya se encuentran en todo tipo de dispositivos (televisores, móviles, altavoces…) que nos acompañan en casa, en el trabajo o que llevamos siempre con nosotros. Tampoco ayuda que en ocasiones, cuando comentamos algo en privado, luego aparezcan anuncios relacionados con lo que hemos dicho al navegar por internet o que se publiquen noticias sobre que los trabajadores de alguna de las empresas responsables han accedido a las conversaciones privadas de miles de usuarios. 

Pese a esto, Amazon, Google o Apple tranquilizan a sus usuarios y apuestan por la transparencia, dándoles a conocer qué datos recogen y permitiéndoles gestionar en todo momento qué se hace con ellos. Para saber con exactitud qué es lo que realmente escucha cada uno de los principales asistentes, cómo guardan esa información y qué tratamiento se le da, hemos analizado sus términos y condiciones y consultado con las propias firmas. 

El propio dispositivo 

Apple te permite controlar qué datos se comparten, con qué apps y cómo se manejan en cada caso (tanto las propias como las de terceros), facilitando realizar ajustes en consecuencia. Y nada se comparte con anunciantes. A priori, la firma de la manzana es la más restrictiva con Siri y garantiza que, cada vez que se le pide algo, el audio de las solicitudes no sale del iPhone, iPad o HomePod, salvo que se decida compartir voluntariamente. 

Eso sí, hay pequeñas diferencias en cuanto a qué se hace con los datos en función de qué aplicación usa el asistente. Por ejemplo: Las consultas que se realizan en apps como Notas o Mensajes ni siquiera envían la información a los servidores de Apple; pero si se hace cuando la petición implica buscar en Internet o se usa la función de dictado, aunque en este caso todo es anónimo: no se asocia ninguna de las consultas con el ID del usuario. En su lugar, se utilizan identificadores aleatorios compuestos por una larga secuencia de letras y números: con Safari y Spotlight este identificador cambia cada 15 minutos, y en Dictado se borran al desactivar Siri y volver a activarlo. Cabe mencionar que Apple no se asegura que se borren peticiones realizadas hace más de seis meses ni la textualmente “pequeña muestra de peticiones” que se haya podido analizar. 

El contacto con los servidores

El asistente de Google por su parte, envía todas las consultas a sus servidores y no se puede configurar lo contrario: es un requisito indispensable para obtener una respuesta. Ahora bien, por defecto, ninguna de estas peticiones se guarda, por lo que es imposible que nadie acceda a las grabaciones ni identifique quien las ha hecho. Pero Google avisa: si se elige que sí se almacenen en la cuenta del usuario, se estará ayudando en primer lugar a que el sistema funcione mejor (revisores especializados analizan el audio para comprobar si se entendió correctamente, por ejemplo); y, en segundo lugar, a personalizar la experiencia en función de la información que tiene Google de cada usuario y de las consultas que ha realizado en el pasado. 

Si se ha elegido habilitar esta opción, en el caso de que el asistente se active por error (algo muy común en cualquier servicio de este tipo, como bien saben los usuarios habituales) bastaría con decirle “Hey Google, no te estaba hablando a ti” para que elimine  cualquier conversación del registro de actividad . En este sentido, también es posible revisar todas las interacciones y eliminarlas manualmente, programar que se haga de forma automática cada 3, 18 o 36 meses, solicitarle con la voz que desaparezcan todas las conversaciones de la última semana, etc. 

Algo similar ocurre con los datos. Aunque Google Assistant no necesita acceder a ellos para funcionar, si se le otorgan los permisos podría avisar si detecta que en la ruta habitual al trabajo hay tráfico (sin necesidad de decirle nada) o saber cuándo es el cumpleaños de uno de los contactos. Lo que sí afirma rotundamente la empresa es que jamás vende las grabaciones de audio ni ninguna otra información personal. 

Pero, ¿y Alexa? 

En Amazon utilizan los datos de sus clientes para personalizar las compras, recomendar listas de reproducción, libros… Y también para personalizar Alexa en función de quién lo está utilizando. Desde su lanzamiento en España, hace casi cinco años, la multinacional ha querido poner el foco en que no hay riesgos para la privacidad y que los usuarios tienen el control de qué información almacena y qué se hace con ellas. 

Dicho esto, siempre que se utiliza Alexa las peticiones van a la nube y ahí se guardan cifradas. En todo momento se puede consultar qué has escuchado (y grabado) e, incluso, reproducir un corte y gestionar todas las grabaciones: eliminar algunas, ordenarlas en función de quién las haya hecho, en qué dispositivo, fecha… Del mismo modo, es posible borrar todas a la vez, programar cuándo debe hacerse o elegir que no se guarden en ningún caso. Todo ellos desde la app o directamente con la voz. 

Pero, sin duda, una de las funciones del asistente de Amazon que más dudas ha generado en lo que a seguridad se refiere es Drop In: algo parecido a un interfono que facilita que familiares y amigos se comuniquen entre sí a través de sus altavoces inteligentes. ¿Podrían acceder a esta función los ciberdelincuentes para espiar? La respuesta de Amazon es un NO rotundo. Para usar esta funcionalidad hay que activarla manualmente y, además, autorizar contacto a contacto quién podría llamar. Y, por supuesto, hay que aceptar la llamada entrante una vez que se produzca. 

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *