Na nobre intenção de evitar pedofilia, Apple abre precedente para invasões de smartphones e coloca privacidade em risco.
Em dezembro de 2015, um casal invadiu uma festa de natal do Departamento de Saúde Pública de San Bernardino, na Califórnia, e saiu atirando. Catorze pessoas foram assassinadas, e 22 ficaram gravemente feridas. Quando o FBI conseguiu interceptar – e matar – os perpetradores, viu que um deles tinha um iPhone. E aí começa nosso papo de hoje.
O FBI queria ter acesso ao conteúdo do telefone de Syed Rizwan Farook, um dos terroristas, que estava protegido por senha. A Apple se recusou, o caso foi para a Justiça e consta que acabou quando o FBI achou uma empresa australiana que desbloqueou o telefone.
Corta para 2021. A Apple anunciou nesta quinta-feira uma série de (três) medidas para prevenir a disseminação de pronografia infantil pela internet. A primeira delas é que em telefones de crianças a empresa vai identificar fotos que possam ter conteúdo impróprio, e notificá-las antes que abram. A terceira (sim, estamos pulando a segunda) tem a ver com as buscas, por texto ou voz, que vão contar com proteções contra materiais que possam estar ligados a abuso sexual infantil.
A segunda, porém, é que é a mais complicada, ou pelo menos a que deixa mais escrachada a complicação: a Apple vai passar a monitorar as fotos que os usuários estejam subindo para o iCloud, e, em caso de suspeita de “CSAM”, ou Child Sex Abuse Material (material relativo a abuso sexual de crianças), vai enviar o material a mães e pais.
O primeiro ponto aqui é entender o mecanismo. Pela explicação da Apple, quando você fizer upload no iCloud, o sistema vai comparar sua foto com uma base de dados fornecida por uma entidade que trabalha com a proteção de crianças contra abuso sexual. Se ela considerar que a foto tem características de algum tipo de abuso contra crianças, receberá uma “marcação”. Se for só uma foto marcada, nada será feito. A partir do momento, porém, em que o usuário atinge um limite de marcações, que a Apple não diz qual é, as fotos serão descriptografadas e analisadas pelo olho humano. Se houver de fato algum crime sendo cometido ali, serão enviadas a mães e pais.
Então, por partes:
A Apple vai analisar, no seu próprio dispositivo, todas as fotos que você quiser subir para o iCloud. Isso é problemático porque ela vai analisar, e é também problemático porque ela está “entrando” no seu aparelho pra fazer isso. Quem explica isso melhor é o pesquisador Diego R. Canabarro, nesse fio aqui no Twitter. Na timeline dele, aliás, você vai encontrar mais textos sobre o assunto, todos melhores que este aqui, pois foram escritos por quem domina o assunto. Outro que aborda o tema, embora sem a mesma profundidade, é o repórter Mike Isaac, do NYT.
O texto da Internet Society sobre o assunto é bastante claro: a segurança e confiabilidade da encriptação da mensagem reside no fato de que só quem manda e quem recebe têm as chaves para “abrir” o conteúdo. Se alguém mais tem as chaves, não importa por que motivo, a corrente está quebrada.
Um bom exemplo talvez seja a “chave universal” que a agência americana de transportes tem para abrir qualquer mala que tenha um cadeado. Se a TSA pode abrir sua mala para achar drogas ou armas, amanhã ela pode decidir que você também não pode ter um Manifesto Comunista na sua mala, ou uma bandeira do Flamengo. E ela vai ver tudo isso, não só armas e drogas.
O segundo ponto é: se a TSA tem a chave, outros terão. Se existe uma chave, criminosos acabarão chegando a ela quase que inevitavelmente.
A comparação aqui é clara: se a Apple consegue ver o que você sobe, amanhã um governo totalitário ou ela mesma podem decidir que não rola mais você ter conteúdo sobre “Como Derrubar um Governo Corrupto”. Ou “Jardinagem Dentro de Casa”. Você não decide mais o que pode ou não ter nos seus arquivos, alguém tem acesso a eles e pode decidir por você, mesmo que no primeiro momento a intenção seja nobre.
Além disso, como observa Canabarro em seu fio: se os criminosos sabem que isto vai rolar, vão achar outras formas de enviar seus materiais. Bin Laden, ele cita, não usava qualquer aparelho de qualquer companhia que ele sabia que poderia observá-lo.
As possibilidades de dar merda são numerosas, aliás: alguma entidade mal-intencionada pode, por exemplo, acessar a base de dados e inserir nela algum material que não tenha nada a ver com pornografia infantil, mas que fará materiais serem sinalizados e vistos. Senhas comumente usadas, por exemplo. Além disso, se a análise do material será feita no próprio aparelho do usuário, a capacidade de processamento do aparelho será usada para isso.
É óbvio que toda iniciativa para coibir o abuso sexual de crianças deve ser comemorada. O problema é que o remédio pode ser adequado para esta doença, mas perigoso para muitos mais casos.
Em 2015 a Apple achou que não havia justificativa para quebrar a criptografia do celular de um terrorista que já estava morto. Em 2021, entende que pode haver motivos para quebrá-la se o crime for o abuso sexual de menores. Independentemente de concordar com a “hierarquia de crimes” que se estabelece, quem é que resolve qual crime é suficientemente grave? E o que impede que com o tempo qualquer crime seja?
A Apple tem dinheiro e cérebros para pensar numa solução melhor. Basta não ter preguiça.
A dica de hoje é um álbum bastante velho, mais especificamente um disco de 54 anos de idade, o Surrealistic Pillow, do Jefferson Airplane. A banda tem uma história longa e diversas iterações, e eu não sou especialista nela, mas esse álbum é o que há de melhor em surrealismo e letras lisérgicas. No meio da crise de caretice que o planeta atravessa, vale ouvir música e letras.