Pesquisadores encontraram 1000 palavras que podem “acidentalmente” acionar alto-falantes inteligentes

12 de julho de 2020 0 104

Apesar alto-falantes inteligentes gostar Amazon Alexa, Página inicial do Googlee Apple HomePodpode facilitar nossa vida cotidiana, também existem alguns problemas de privacidade. Por exemplo, como os alto-falantes inteligentes usam palavras-chave específicas para ativar, algumas vezes eles podem ser ativados acidentalmente se ouvirem algo semelhante às palavras-chave. Então, agora os pesquisadores encontraram mil palavras que podem “acidentalmente” acionar umalto-falante inteligente.

Uma equipe de pesquisadores da Ruhr-Universität Bochum da Alemanha e do Instituto Max Planck de Segurança Cibernética e Privacidade realizou recentemente um experimento. Através deste experimento,eles encontraram quase 1.000 palavras que podem acidentalmente acionar um alto-falante inteligente para ouvir seus humanos.

Os pesquisadores usaram dispositivos com assistentes inteligentes como Alexa, Siri e Google Assistant e outros três assistentes de voz exclusivos dos mercados chineses. Eles então ligaram os alto-falantes e os colocaram em uma sala, um por um. Agora, na sala, havia uma TV em que episódios de séries populares, comoGuerra dos Tronos, House of Cards e Modern Family estavam jogando.

Assim, enquanto os episódios eram exibidos na TV, os pesquisadores esperavam a ativação dos assistentes virtuais. Agora,para observar quando os dispositivos estão sendo acionados, os pesquisadores usaram uma luz LED que acendia toda vez que o dispositivo era ativado.

Depois que o assistente de um dispositivo é ativado, ele usa o software de análise de fala local para detectar se as palavras foram realmente pronunciadas para ativá-lo. Agora, se o dispositivo concluir que as palavras foram realmente para acionar o assistente,envia uma gravação do clipe para os servidores em nuvem da empresa para análise posterior.

Bom do ponto de vista da engenharia, ruim para a privacidade

Agora, de acordo com os pesquisadores, os desenvolvedores desses alto-falantes inteligentes programaram intencionalmente várias palavras que podem ativar o assistente de voz integrado. Essas palavras podem não ser as palavras-chave reais, mas podem ativar o assistente imediatamente.

Conforme Dorothea Kolossa, um dos pesquisadores da equipe, “Os dispositivos são intencionalmente programados de uma maneira que perdoa, porque eles devem ser capazes de entender seus humanos”.

Segundo outro pesquisador que também é professor do Ruhr-Universität Bochum, Thorsten Holz, “Fdo ponto de vista da privacidade, é claro que isso é alarmante, porque às vezes conversas muito particulares podem acabar com estranhos. Do ponto de vista da engenharia, no entanto, essa abordagem é bastante compreensível, porque os sistemas só podem ser aprimorados usando esses dados. Os fabricantes precisam encontrar um equilíbrio entre proteção de dados e otimização técnica ”

>

Notícia