Nós constantemente falamos aqui de ameaças de invasão de privacidade, ataques virtuais sofisticadíssimos e equipamentos de altas cifras que empregam técnicas do arco da velha para desbloquear iPhones à força. Mas e se eu disser que há formas muito mais estrambólicas de adentrar a sua vida digital?
Uma reportagem publicada hoje no New York Times mostra que agentes maliciosos podem enviar comandos “secretos” a assistentes digitais como a Siri ou a Alexa, escondendo-os em músicas, clipes de voz ou ruídos de forma que eles fiquem imperceptíveis à audição humana. Que?!
A descoberta é fruto de uma pesquisa realizada por cientistas chineses e americanos das áreas de acústica e inteligência artificial. Tudo começou há cerca de dois anos, quando pesquisadores das Universidades de Berkeley e Georgetowm, ambas nos EUA, descobriram que era possível mascarar um comando de voz para assistentes digitais em meio a um clipe de ruído branco — aquele barulho de ondas aleatórias, como o de uma TV analógica sem sinal.
A partir daí, outros pesquisadores avançaram os estudos comprovando a possibilidade de incorporar esses comandos não só em clipes de ruído, mas em trechos de um discurso ou numa música. O processo é todo baseado nas diferentes formas que o ouvido humano e os microfones dos dispositivos “ouvem” e reconhecem a fala e os sons do ambiente; realizando pequenas mudanças nos arquivos de áudio que serão adulterados, os pesquisadores conseguem substituir aquilo que as máquinas deveriam ouvir por coisas diferentes — embora, aos nossos ouvidos, tudo pareça absolutamente normal. 😳
Uma equipe da Universidade de Zhejiang, na China, demonstrou o ataque em vídeo:
E qual o perigo disso? Bom, por ser uma ameaça totalmente imperceptível, ela pode agir em momentos que o seu dispositivo esteja exposto ou desbloqueado e, então, realizar comandos de todos os tipos, do bem humorado (como pedir que o seu HomePod toque o Gemidão do Zap™) ao simplesmente perigoso (como mandar o seu iPhone/iPad acessar um site malicioso).
Os pesquisadores não têm informações se esse tipo de ataque já foi utilizado no mundo real com fins maliciosos, mas um deles — Nicholas Carlini, da Universidade de Berkeley — acredita ser uma questão de tempo até que o método comece a ser aplicado… se é que já não está sendo.
Como eu sempre reafirmo ao final desse tipo de artigo, não é caso para nós, meros mortais, sairmos correndo pelas colinas. Além de considerar que a especificidade desse método de invasão o torna basicamente exclusivo para alvos mais visados que nós, cuidados básicos nos tornam quase que imunes a ele: basta não sair por aí tocando clipes de áudio recebidos aleatoriamente por contatos estranhos. Parece fácil, não?
via Cult of Mac