Suscríbete a Merca2.0. Haz clic aquí

Como era de esperarse, los hackers pueden tomar el control de los asistentes de voz

Lo que comenzó como una herramienta extra para los smartphones ha evolucionado a gadgets independientes con un sistema de voz más avanzado, el cual se ha convertido en otra herramienta indispensable para las marcas, aunado a que ya existen varias marcas de uso doméstico en el mercado.

Lo que comenzó como una herramienta extra para los smartphones ha evolucionado a gadgets independientes  con un sistema de voz más avanzado, el cual se ha convertido en otra herramienta indispensable para las marcas, aunado a que ya existen varias marcas de uso doméstico en el mercado.

Entre las diversas marcas como Siri, de Apple, Alexa de Amazon, Cortana de Microsoft y Google Assistant, desarrollaron complejos sistemas de inteligencia artificial, cuyas funciones de voz fueron siempre vendidas como “anti-hackeables”, hasta que investigadores chinos descubrieron una vulnerabilidad en los asistentes de voz de Apple, Google, Amazon, Microsoft, Samsung y Huawei.

De acuerdo con The Guardian, investigadores de la Universidad de Zhejiang diseñaron una técnica llamada “Dolphin Attack”, el cual tradujo varios comandos vocales a frecuencias ultrasónicas, las cuales son descifrables por el software que alimenta los asistentes de voz, es decir, dicho proceso permitiría a los hackers tomar el control de los gadgets con solo unas pocas palabras pronunciadas en frecuencias que las personas no pueden oír.

Al parecer, la vulnerabilidad en el software de los comandos de voz también afectaría a los iPhone, Macbook que ejecutan Siri, así como los modelos Galaxy, de Samsung, e incluso computadoras con Windows 10. Según los investigadores asiáticos, podrían pedir a una Macbook o Nexus 7 abrir un sitio web malicioso.

Concretamente, para hackear un asistente de voz, los investigadores usaron un Smartphone, más un altavoz, así como un hardware adicional para “manipular el comando de frecuencias de voz” por lo que al manipular los asistentes de voz podrían instalar códigos maliciosos, o malware en los gadgets de las personas.

Para analistas informáticos, el diseño de los micrófonos de los asistentes de voz hacen que sea difícil protegerse de este tipo de ataques, ya que los componentes de sus micrófonos utilizan componentes que no pueden ser bloqueados por ultrasonidos.

Obtén un més gratis a Merca2.0 premium

Cancela en cualquier momento
Acceso exclusivo a rankings y radiografías.
Análisis profundos y casos de estudio de éxito.
Historial de la revista impresa en formato digital.

¡Disfruta de lo mejor del marketing sin costo alguno por un mes!

Más de 150,000 mercadólogos inscritos en nuestros boletín de noticias diarias.

Premium

Populares

Únete a más de 150,000 lectores

Regístrate a nuestro newsletter en la siguiente forma y recibe a primera hora las noticias más importantes de mercadotecnia, publicidad y medios en tu correo.

Más de Merca2.0

Artículos relacionados

You don't have credit card details available. You will be redirected to update payment method page. Click OK to continue.