Semana 30 de segurança: privacidade, tecnologia e sociedade

12 de julho, a imprensa ainda não confirmou oficialmente os relatos de que o Facebook entrou em acordo com a Comissão Federal de Comércio dos EUA sobre o vazamento de informações do usuário. O principal tópico da investigação da FTC foram as ações da Cambridge Analytica, que em 2015 recebiam dados de dezenas de milhões de usuários do Facebook. O Facebook é acusado de proteção insuficiente da privacidade do usuário e, se as mensagens forem confirmadas, a rede social pagará à comissão estadual dos EUA a maior multa da história no valor de US $ 5 bilhões.

O escândalo do Facebook e da Cambridge Analytica é o primeiro, mas de maneira alguma o último exemplo de discussão de problemas técnicos com métodos completamente não técnicos. Neste resumo, veremos alguns exemplos recentes de tais discussões. Mais especificamente, como os problemas de privacidade do usuário são discutidos sem levar em consideração os recursos específicos da operação dos serviços de rede.

Exemplo 1: Google reCaptcha v3


A nova versão da ferramenta de controle de bot do Google reCaptcha v3 foi introduzida em outubro de 2018 . A primeira versão do "captcha" do Google distinguiu robôs de pessoas em reconhecimento de texto. A segunda versão mudou o texto para figuras e, em seguida, mostrou-as apenas àqueles a quem ela considerava suspeitos.


A terceira versão não pede nada, baseando-se principalmente na análise do comportamento do usuário no site. Cada visitante recebe uma classificação específica, com base na qual o proprietário do site pode, por exemplo, forçar uma solicitação de autorização por meio de um telefone celular, se considerar o logon suspeito. Tudo parece estar bem, mas não completamente. Em 27 de junho, a Fast Company publicou um longo artigo onde, citando dois pesquisadores, identifica as áreas problemáticas do reCaptcha v3 em termos de privacidade.

Em primeiro lugar, ao analisar a versão mais recente do CAPTCHA, verificou-se que os usuários conectados a uma conta do Google, por definição, obtêm uma classificação mais alta. Da mesma forma, se você abrir um site por meio de uma rede VPN ou Tor, é mais provável que seja marcado como visitante suspeito. Por fim, o Google recomenda instalar o reCaptcha em todas as páginas do site (e não apenas naquelas em que você precisa verificar o usuário). Isso fornece mais informações sobre o comportamento do usuário. Mas esse mesmo recurso teoricamente fornece ao Google uma grande quantidade de informações sobre o comportamento do usuário em centenas de milhares de sites (de acordo com a Fast Company, o reCaptcha v3 está instalado em 650 mil sites, vários milhões usam versões anteriores).

Este é um exemplo típico de uma discussão ambígua de tecnologias: por um lado, quanto mais dados uma ferramenta útil para combater os bots, melhores os proprietários e os usuários do site. Por outro lado, o provedor de serviços obtém acesso a uma grande variedade de dados e, ao mesmo tempo, controla quem deve ser admitido imediatamente nos dados digitais e quem dificulta a vida. Obviamente, os defensores da privacidade máxima, tentando não manter cookies desnecessários no navegador, constantemente usando VPNs, não gostam desse progresso. Do ponto de vista do Google, não há problema: a empresa alega que os dados “captcha” não são usados ​​para segmentação de publicidade, e a complicação da vida dos motoristas de bots é uma boa razão para essas inovações.

Exemplo dois: acesso a dados em aplicativos Android

No final de junho, a mesma Comissão Federal de Comércio dos EUA realizou uma conferência PrivacyCon. O relatório do pesquisador Serge Egelman foi dedicado a como os desenvolvedores de aplicativos para Android ignoram as limitações do sistema e recebem dados que, em teoria, não deveriam ser recebidos. Em um estudo científico , 88 mil aplicativos da americana Google Play Store foram analisados, dos quais 1325 foram capazes de contornar as limitações do sistema.

Como eles fazem isso? Por exemplo, o aplicativo de processamento de fotos do Shutterfly obtém acesso aos dados de geolocalização, mesmo que o usuário os proíba. É simples: o aplicativo processa geotags armazenadas em fotos às quais o acesso está aberto. O representante do desenvolvedor comenta razoavelmente que o processamento de geotags é uma funcionalidade padrão do programa usado para classificar fotos. Vários aplicativos contornaram a proibição de acesso à geolocalização, verificando os endereços MAC dos pontos Wi-Fi mais próximos e, assim, determinando a localização aproximada do usuário.



Um método um pouco mais "criminoso" de contornar restrições foi descoberto em 13 aplicativos: um aplicativo pode ter acesso ao IMEI do smartphone. Ele o salva em um cartão de memória, de onde outros programas que não têm acesso podem lê-lo. Assim, por exemplo, uma rede de publicidade da China, cujo SDK está incorporado no código de outros aplicativos. O acesso ao IMEI permite identificar exclusivamente o usuário para a segmentação de publicidade subsequente. A propósito, outro estudo está relacionado ao acesso universal aos dados no cartão de memória: foi revelada a possibilidade (teórica) de substituição de arquivos de mídia ao se comunicar nos mensageiros do Telegram e Whatsapp. Como resultado, as regras de acesso a dados na nova versão do Android Q serão mais rigorosas .

Exemplo três: IDs do Facebook em imagens


Alguns anos atrás, um tweet desse tipo poderia desencadear, na melhor das hipóteses, uma discussão técnica para algumas dúzias de posts, mas agora os posts do Forbes estão escrevendo sobre isso. Desde pelo menos 2014, o Facebook adicionou seus próprios identificadores aos metadados do IPTC de imagens que são carregadas no próprio Facebook ou na rede social do Instagram. Os identificadores do Facebook são discutidos em mais detalhes aqui , mas ninguém sabe exatamente como a rede social os usa.

Dado o histórico negativo de notícias, esse comportamento pode ser interpretado como "outra maneira de monitorar os usuários, mas como é que eles poderiam". Mas, de fato, os identificadores nos metadados podem ser usados, por exemplo, para proibições de conteúdo ilegal, e você pode bloquear não apenas reposts dentro da rede, mas também scripts “baixaram a imagem e fizeram o upload novamente”. Essa funcionalidade pode ser útil.

O problema da discussão pública sobre questões de privacidade é que os recursos técnicos reais de um serviço são frequentemente ignorados. O exemplo mais revelador: uma discussão sobre backdoors governamentais em sistemas de criptografia para mensageiros instantâneos ou dados em um computador ou smartphone. Os interessados ​​no acesso livre de problemas a dados criptografados falam da luta contra o crime. Os especialistas em criptografia argumentaram que a criptografia não funciona dessa maneira, e o enfraquecimento intencional de algoritmos criptográficos os tornará vulneráveis ​​a todos . Mas pelo menos estamos falando de uma disciplina científica com várias décadas de idade.

O que é privacidade, que tipo de controle sobre nossos dados é necessário, como monitorar a conformidade com esses padrões - ainda não há uma resposta geral e compreensível para essas perguntas. Em todos os exemplos desta postagem, nossos dados são coletados para algumas funcionalidades úteis; no entanto, esse benefício nem sempre é para o usuário final (mais frequentemente para o anunciante). Mas quando você olha para engarrafamentos no caminho de casa, também é o resultado da coleta de dados sobre você e centenas de milhares de outras pessoas.

Não quero terminar o post com uma conclusão estúpida de que "não é tão simples", então vamos tentar o seguinte: quanto mais longe, mais frequentemente os desenvolvedores de programas, dispositivos e serviços terão que resolver não apenas problemas técnicos ("como fazê-lo funcionar"), mas também socialmente político (“como não pagar multas, não leia artigos irritados na mídia e não perca a concorrência de outras empresas onde há mais privacidade, pelo menos em palavras”). Como a indústria mudará nessa nova realidade? Teremos mais controle sobre os dados? O desenvolvimento de novas tecnologias desacelerará devido à "pressão pública", que requer gastar tempo e recursos? Esta evolução vamos observar.

Isenção de responsabilidade: as opiniões expressas neste resumo nem sempre coincidem com a posição oficial da Kaspersky Lab. Caros editores, geralmente recomendam tratar qualquer opinião com ceticismo saudável.

Source: https://habr.com/ru/post/pt460933/


All Articles