A pesquisa “Plataformas globais, proteções parciais” revela uma desigualdade significativa nas políticas de privacidade e segurança de redes sociais, como TikTok, Instagram e WhatsApp, entre diferentes regiões do mundo. Enquanto as redes sociais adotam medidas de proteção mais rigorosas para crianças e adolescentes na Europa, o mesmo não ocorre em países do sul global, como Brasil e Indonésia, ou mesmo nos Estados Unidos. Essa discrepância sugere uma abordagem desigual das plataformas em relação à segurança infantil, expondo crianças e adolescentes a riscos maiores em determinadas regiões.
No TikTok, por exemplo, crianças na Europa têm uma “experiência adequada à idade”, com recursos potencialmente perigosos, como a realização de lives, desativados por padrão. No Instagram, contas criadas por adolescentes até 17 anos são definidas como privadas por padrão em alguns países europeus, o que não acontece em outros lugares. Essas diferenças destacam uma falta de uniformidade na aplicação de medidas de proteção, levantando preocupações sobre a disposição das plataformas em oferecer designs de segurança diferenciados para outras regiões.
O estudo analisou diversos aspectos das políticas das plataformas, como requisitos de idade mínima, políticas de privacidade, suporte em línguas locais, e variações nas configurações padrão para usuários jovens de até 17 anos. Foi constatado que os processos de verificação de idade são frequentemente inadequados, permitindo o acesso de crianças abaixo da idade mínima. Além disso, as políticas de privacidade, mesmo quando traduzidas, não estão em formatos acessíveis para a compreensão de jovens com diferentes necessidades de comunicação.
A falta de transparência e clareza nas políticas e requisitos regionais também prejudica a compreensão dos jovens e seus responsáveis. No Brasil, por exemplo, muitos adolescentes acessam a internet majoritariamente por dispositivos móveis e utilizam pacotes de dados “zero-rating”, que oferecem acesso ilimitado a certas redes sociais. Essa prática, aliada à dificuldade de compreensão dos termos de uso, limita o suporte que pais e responsáveis podem oferecer para uma navegação segura.
Diante dessas preocupações, 37 organizações jurídicas ao redor do mundo enviaram uma carta ao CEO do TikTok, Shou Zi Chew, solicitando medidas para corrigir essas disparidades de design. Entre os signatários estão entidades como o Instituto Alana e a DataPrivacy Brasil, que clamam por políticas mais protetivas e inclusivas. Em alguns lugares, como o Reino Unido, já foram implementadas leis robustas, como o Age Appropriate Design Code, que protege efetivamente crianças em plataformas digitais. No Brasil, apesar de existirem legislações como a Lei Geral de Proteção de Dados (LGPD) e o Marco Civil da Internet, ainda há necessidade de regulamentações mais específicas e protetivas.
O estudo ressalta que, embora o uso de plataformas de mídia social seja um direito dos jovens, as empresas precisam garantir que essas plataformas sejam seguras, acessíveis e respeitem os direitos das crianças e adolescentes. A pressão por legislações mais rígidas e a harmonização das políticas de proteção infantil em todo o mundo é crucial para assegurar que todas as crianças, independentemente de sua localização, tenham a mesma segurança e privacidade online.
Esta luta ainda é um desafio árduo, mas desistir não deve ser uma opção.