Es posible que todo la paranoia alrededor de los dispositivos inteligentes que nos escuchan y espían no estuviese tan desencaminada al fin y al cabo. Una reciente investigación de la Northeastern University de Boston ha descubierto que altavoces como la serie Echo de Amazon, Google Home y HomePod de Applegraban ‘accidentalmente’ conversaciones hasta 19 veces al día.

La app te avisa si el dispositivo recoge datos visuales, de sonido, de localización...

Si a esto le sumas que se han vendido más de 100 millones de dispositivos Alexa… ¿quién está actualmente libre de peligro? Si bien el estudio asegura que nuestros asistentes virtuales no están todo el tiempo ‘con la oreja puesta’, esas casi veinte veces que se conectan sin el permiso del usuario suponen un potencial peligro, pues pueden ocurrir en cualquier momento.

Según informa el medio británico The Telegraph, para probar los dispositivos el equipo de investigación reprodujo audios de algunos de los mejores programas de Netflix, en un intento de activar ‘los despertares’ accidentales de los altavoces inteligentes. Se utilizaron series como Big Bang Theory, las Chicas Gilmore, Anatomía de Grey, The Office o Narcos para estos tests.

El rango de ‘despertares’ accidentales en 24 horas varió de 1.5 a 19 durante los experimentos. HomePod de Apple y Cortana de Microsoft fueron los más activados, seguidos de Echo Dot Series 2 de Amazon, Google Home mini y Echo Dot Series 3, también de Amazon.

Este brazalete bloquea los micros de cualquier dispositivo inteligente que haya alrededor.

“La mayoría de las activaciones no ocurren consistentemente”, afirman los investigadores, que repitieron los experimentos doce veces para comprobarlo. “Esto podría deberse a cierta aleatoriedad en la forma en que los altavoces inteligentes detectan palabras de ‘despertar’, o tal vez a que pueden aprender de errores anteriores y cambiar la forma en que detectan las palabras”, añaden.

De los doce programas de televisión probados, todos causaron al menos una activación involuntaria. The Office y las Chicas Gilmore causaron más debido a su mayor volumen de diálogo. La investigación todavía está en curso.

¿Qué palabras pueden activar ese tipo de ‘despertares’ accidentales?

Los asistentes de voz como Google Assistant, Alexa de Amazon, Siri de Apple y Cortana de Microsoft tienen su ‘wake word’ o su palabra de activación.

Cualquiera que haya usado un asistentes de voz sabe que en ocasiones se despiertan ‘accidentalmente’ cuando se pronuncia algo parecido a esa palabra de activación. Por ejemplo, ‘Seriously’ -en inglés, ‘en serio’- suena muy similar a ‘Siri’, término con el que se activa el asistente de Apple.

Alexa, Google Assistant y Siri, ¿con quién me entiendo mejor?

Existen otros ejemplos de confusión en las ‘wake word’, pero el resultados es siempre el mismo: incluso aunque el ‘despertar’ sea accidental, el aparato empezará a grabar en el momento en que se active. De hecho, según la investigación, los altavoces se activaron durante el tiempo suficiente para grabar audio “sensible” de su entorno -ganan los Amazon Echo Dot 2ª generación, que registran hasta 43 segundos-.

Lo que activa cada altavoz:

  • Google Home Mini, palabra de activación: OK/Hey/Hola Google.
  • Apple Homepod, palabra de activación: Hola, Siri
  • Harman Kardon Invoke de Microsoft, palabra de activación: Cortana
  • Amazon Echo Dot 2ª generación, palabra de activación: Alexa, Amazon, Echo
  • Amazon Echo Dot 3ª generación, palabra de activación: Alexa, Amazon, Echo