Terceirizados da Apple ouvem conversas particulares pela Siri, segundo um deles Conteúdo pode incluir sexo ou tráfico de drogas, mas prática está na política de privacidade da Apple

HomePod preto de cima com o ícone da Siri

A Apple é a guardiã-mor da privacidade do usuário na comunicação, mas, na prática, nem a poderosa Maçã passa incólume pela falta de privacidade que é (quase) inerente à vida digital. Uma nova reportagem de The Guardian mostra bem isso.

Publicidade

O jornal britânico ouviu um funcionário de uma empresa contratada pela Apple para realizar análises de trechos de áudios processados pela Siri — pequenos clipes de voz gravados pela assistente dos seus usuários e enviados para análise a fim de aprimorar seu sistema de reconhecimento de fala. Pelo depoimento do empregado, o conteúdo dessas gravações passa longe de ser inofensivo ou descartável.

Segundo ele, os funcionários terceirizados frequentemente ouvem gravações altamente privativas e sensíveis dos usuários, com áudios de pessoas fazendo sexo, discutindo tratamentos com médicos, fechando negócios confidenciais ou realizando atos criminosos, como negociações de drogas. A frequência com que esses áudios são “acidentalmente” capturados pela Siri é alta, de acordo com o denunciante.

É bom notar que, como parte da estratégia de privacidade diferencial da Apple, as gravações não são acompanhadas de dados pessoais dos usuários; além disso, a Maçã deixa claro nos termos de uso da Siri que algumas das gravações capturadas pela assistente podem ser revisadas por seres humanos.

Publicidade

O problema aqui, adverte o funcionário, é que o caráter anônimo dessas gravações não é tão anônimo assim: em alguns casos, os trabalhadores analisam trechos de até 30 segundos de áudio, em que é possível facilmente ouvir informações pessoais do usuário e traçar um perfil dele. Além disso, a Apple não deixaria explícito o suficiente para seus clientes que a Siri pode ter falsos positivos nas suas ativações — isto é, ela pode “acordar” e começar uma gravação em um momento aleatório, sem que você a tenha chamado, simplesmente por ter capturado um áudio semelhante ao do seu comando.

Em resposta ao Guardian, a Apple reiterou que os clipes da Siri sempre são analisados de forma anônima, e uma parcela aleatória de menos de 1% das ativações da assistente é usada diariamente para conferência — a maioria dos clipes de voz tem, no máximo, alguns segundos de duração. “Todos os analisadores têm a obrigação de seguir os termos de confidencialidade rigorosos da Apple”, afirmou a empresa.

Segundo o funcionário ouvido pelo jornal, entretanto, a resposta não é suficiente — outros analisadores, mal-intencionados, poderiam muito bem usar as informações obtidas nos clipes com intenções maldosas contra os usuários da empresa. É bem verdade que as chances de isso acontecer são pequenas, mas, ainda assim, fica o lembrete: privacidade absoluta, na era digital, é uma utopia — mesmo com a Apple.

via AppleInsider

Taggeado:

Posts relacionados

Comentários

Carregando os comentários…