24.8 C
Canoas
HomeEconomiaApple adia sistema que analisará imagens suspeitas de abuso infantil

Apple adia sistema que analisará imagens suspeitas de abuso infantil


Alguns especialistas em privacidade criticaram a ferramenta e apontaram que ela poderia ser usada para promover perseguições políticas. Empresa disse que receberá contribuições e levará mais tempo para liberar a solução. Apple
REUTERS/David Gray
A Apple afirmou nesta sexta-feira (3) que adiará a implementação de uma ferramenta que analisará suspeitas de abuso infantil em imagens enviadas ao serviço de armazenamento na nuvem iCloud.
O plano da Apple de incluir um mecanismo de verificação é alvo de críticas de ativistas em privacidade, que consideram haver um risco da ferramenta ser usada por governos repressivos para procurar outros materiais para censura ou perseguições políticas.
Segundo a agência Reuters, funcionários da Apple também criticaram o plano internamente.
LEIA TAMBÉM:
Apple afrouxa regras da App Store para alguns apps que oferecem assinaturas
Sua conta no WhatsApp está protegida? Faça o teste e descubra
A empresa afirmou que o adiamento será usado para receber contribuições de especialistas e aprimorar o recurso. Porém, as mudanças levarão mais tempo para serem concluídas.
“Com base no feedback de consumidores, grupos ativistas, pesquisadores e outros, decidimos levar um tempo a mais nos próximos meses para reunir opiniões e fazer melhorias antes de lançar esses recursos extremamente importantes de segurança infantil”, disse a Apple, em comunicado.
O pesquisador de segurança cibernética na Universidade John Hopkins, Matthew Green, foi um dos críticos da proposta da Apple. Ele disse nesta sexta-feira que a decisão da companhia de adiar o recurso é “promissora”.
Segundo ele, a Apple deveria ser mais transparente e explicar por que analisará mais arquivos.
“Passar de nenhum escaneamento (exceto anexos de e-mail) para escanear a biblioteca de fotos de todo mundo era um salto enorme. Você precisa justificar esse tipo de escalada”, afirmou, em seu perfil no Twitter.
Entenda o recurso anunciado pela Apple
A Apple anunciou em agosto uma ferramenta de detecção de material de abuso sexual infantil (CSAM, na sigla em inglês). Com a solução, a empresa cruzaria imagens armazenadas no iCloud com registros de abusos de menores presentes em bancos de dados de autoridades.
Caso encontrasse imagens suspeitas, a Apple realizaria uma revisão humana e poderia denunciar o usuário para autoridades. A empresa disse que não usaria o sistema para nenhum outro fim, mesmo que solicitado por países.
Apesar da promessa, alguns especialistas em privacidade e segurança apontaram que a solução poderia ser usada para buscar conteúdos genéricos e para governos perseguirem opositores.
O objetivo era lançar a solução até o fim do ano por meio de atualizações de software iPhone, iPad e Mac. A Apple não informou uma nova previsão de quando ele será implementado.
Confira as novidades do iPhone 12

- Advertisement -spot_img

Conecte

0FansLike
7FollowersFollow