O Brasil acaba de instituir um novo marco legal de imensa relevância social e jurídica: a Lei n° 15.211, de 17 de setembro de 2025, que cria o Estatuto Digital da Criança e do Adolescente. Em um mundo onde a vida online começa cada vez mais cedo, essa legislação surge para estabelecer um ecossistema de proteção, impondo deveres a plataformas, redes sociais, desenvolvedores de jogos e toda a cadeia de produtos e serviços de tecnologia.
A nova lei dialoga diretamente com normas fundamentais como o Estatuto da Criança e do Adolescente (ECA), o Marco Civil da Internet e a Lei Geral de Proteção de Dados Pessoais (LGPD), criando um microssistema jurídico focado na proteção integral dos menores de 18 anos no ambiente virtual. Para estudantes e profissionais do Direito, compreender essa complexa teia de novas obrigações é indispensável.
Navegar por uma lei tão densa e cheia de novos conceitos técnicos pode ser intimidador. É por isso que o JurisHand PRO AI se torna uma ferramenta essencial nos seus estudos. Com nosso Vade Mecum digital sempre atualizado, você pode usar o Assistente AI para pedir explicações sobre os novos deveres das plataformas ou comparar as disposições do novo estatuto com as do ECA e da LGPD, garantindo uma compreensão profunda e integrada.
Vamos desvendar 5 dos pontos mais impactantes do novo Estatuto Digital da Criança e do Adolescente.
1. Proteção e Privacidade por Padrão (Privacy by Default)
Um dos pilares da nova lei é o princípio da proteção desde a concepção. O artigo 7º determina que todos os produtos e serviços digitais direcionados a crianças e adolescentes (ou de provável acesso por eles) devem, por padrão, vir com a configuração mais protetiva disponível em relação à privacidade e à proteção de dados.
Análise: Isso inverte a lógica atual. Em vez de o usuário (ou seus pais) ter que procurar e ativar as configurações de segurança, a plataforma já deve oferecê-las no nível máximo de proteção. Qualquer configuração menos protetiva dependerá de uma escolha informada e ativa do usuário. Trata-se da aplicação direta do princípio do melhor interesse da criança ao design de tecnologia.
2. Verificação de Idade e Supervisão Parental
A lei ataca de frente o desafio de impedir o acesso de crianças a conteúdos inadequados. O artigo 9º obriga as plataformas que oferecem conteúdo para maiores de 18 anos a adotarem mecanismos eficazes de verificação de idade, vedando a simples autodeclaração. Além disso, todo um capítulo (Capítulo V) é dedicado a detalhar as ferramentas de supervisão parental, que as empresas deverão oferecer de forma acessível para que pais e responsáveis possam gerenciar o tempo de uso, restringir compras e monitorar as interações dos filhos.
Análise: Essa é uma das mudanças mais operacionais e desafiadoras. A lei transfere para as lojas de aplicativos e sistemas operacionais o dever de fornecer um “sinal de idade” seguro para as demais aplicações, criando uma responsabilidade solidária na cadeia digital.
3. Proibições Específicas: Fim das Loot Boxes e do Perfilamento para Publicidade
O novo Estatuto Digital da Criança e do Adolescente é incisivo em proibir práticas comerciais consideradas abusivas. Duas se destacam:
-
Art. 20: Veda expressamente as caixas de recompensa (loot boxes) em jogos eletrônicos direcionados ao público infanto-juvenil.
-
Art. 22: Proíbe o uso de técnicas de perfilamento (análise de comportamento) para direcionar publicidade a crianças e adolescentes.
Análise: A proibição das loot boxes atende a uma preocupação global que associa essa mecânica a jogos de azar. Já a vedação ao perfilamento publicitário reforça a proteção contra a exploração comercial, impedindo que dados de menores sejam usados para criar perfis de consumo e direcionar anúncios de forma massiva e automatizada.
4. Remoção Rápida de Conteúdo Nocivo
Alterando a lógica geral do Marco Civil da Internet (que exige ordem judicial para a remoção de conteúdo, salvo exceções), o artigo 29 do novo estatuto cria um procedimento de notice and takedown (notificação e retirada) mais célere. Plataformas que forem notificadas pela vítima, por seus pais, pelo Ministério Público ou por entidades de defesa sobre conteúdo que viole direitos de crianças e adolescentes (como abuso, exploração e violência) deverão proceder à retirada independentemente de ordem judicial.
Análise: Essa é uma mudança de paradigma na moderação de conteúdo no Brasil para este público específico. Ela confere mais poder e responsabilidade às plataformas para agirem rapidamente na remoção de material danoso, ao mesmo tempo que prevê um direito de contestação para o usuário que teve seu conteúdo removido.
5. Criação de uma Autoridade Fiscalizadora e Sanções Pesadas
A lei prevê a criação de uma “autoridade administrativa autônoma” (Art. 34) responsável por fiscalizar o cumprimento do estatuto e aplicar sanções. E as penalidades são severas: o artigo 35 estabelece, entre outras, a aplicação de multa de até 10% do faturamento do grupo econômico no Brasil, limitada a R$ 50 milhões por infração.
Análise: A instituição de um órgão fiscalizador especializado e a previsão de multas altíssimas sinalizam a seriedade com que o legislador tratou o tema. A intenção é garantir que as big techs e outras empresas do setor tenham fortes incentivos econômicos para se adequar às novas e rigorosas regras de proteção.
Assine o JurisHand PRO AI e fiquei por dentro das novidades da Legislação e Jurisprudências mais importantes com a melhor ferramenta de estudos do mercado.
Para outros conteúdos sobre Concursos, Leis, Notícias e Decisões do STF e STJ, siga o Blog e as Redes do JurisHand!
E confira nosso app, disponível para iOS e Android e acesse www.jurishand.com
Até a próxima!
Equipe JurisHand