Apple analisará fotos de iPhones armazenadas no iCloud para auxiliar no combate ao abuso infantil.
Logicamente que todas as fotos serão analisadas pela empresa, e não apenas aquelas que infelizmente retratam essa abusividade.
A Apple anunciou que pretende utilizar recursos de inteligência artificial para ajudar no combate ao abuso de menores, a partir da análise de fotos tiradas com iPhones e armazenadas no iCloud.
O sistema desenvolvido pela Apple usará algoritmos para identificar “material de abuso infantil”, assim considerado qualquer conteúdo que revele atividades sexualmente explícitas envolvendo crianças.
A Apple garante que o uso do sistema não afetará a privacidade dos usuários de iPhone, pois não armazena nenhum tipo de conhecimento baseado em imagens que não correspondam ao banco de dados relacionado ao “material de abuso infantil”, fornecidas pelo Centro Nacional para Crianças Desaparecidas e Exploradas dos Estados Unidos.
A empresa sinalizou, ainda, que o risco de apontamento incorreto de uma conta para uso de “material de abuso infantil” é extremamente baixo, em torno de 1 (uma) em 1 trilhão de contas por ano, reforçando que o sistema é seguro e eficaz.
E, ainda assim, será realizada análise manual de todos os alertas que ocasionarem a emissão de relatórios para as autoridades, visando evitar erros de inteligência artificial.
Fica a dúvida então:
– A privacidade poderá ser hackeada ou a medida deve ser adotada mesmo que viole a privacidade de inúmeras outras pessoas?
Além disso, é importante ressaltar casos reais que acusaram indevidamente pessoas inocentes, apenas com base em informações equivocadas captadas por provedores de conteúdo. Vale dizer que pessoas acusadas injustamente de pedofilia já foram parar dentro da prisão.
E a segurança realmente será eficaz? Em uma era que ouvimos constantemente na mídia sobre vazamento de informações.
Realmente estamos diante de um dilema difícil de resolver.
Marina Cabral Lima Alves
Advogada da Silva Vitor, Faria & Ribeiro Sociedade de Advogados