Novo ECA Digital: o que muda para empresas de tecnologia — e como se preparar
- Rafael Reis
- 19 de set. de 2025
- 3 min de leitura

Confira o Infográfico exclusivo criado pela RRA_ sobre o novo ECA Digital.
Em 17 de setembro de 2025 foi sancionada a Lei nº 15.211/2025, conhecida como Estatuto Digital da Criança e do Adolescente (ECA Digital). A norma cria um regime abrangente de proteção para crianças e adolescentes em ambientes digitais e entra em vigor em 17 de março de 2026 (vacatio legis de 6 meses).
Se você opera produtos ou serviços de tecnologia no Brasil — de apps e jogos a lojas de aplicativos, sistemas operacionais e redes sociais — este texto é para você.
Alcance e conceito-chave: “acesso provável”
A lei se aplica a qualquer produto ou serviço de TI direcionado a crianças e adolescentes ou com “acesso provável” por esse público. A expressão abrange atratividade e facilidade de uso para menores, além de serviços com risco significativo à privacidade, segurança ou desenvolvimento, especialmente plataformas de interação social. Na prática, muitas aplicações que não “se dizem” infantis passam a estar no escopo.
Princípios e deveres desde a concepção
O ECA Digital exige configuração padrão no modo mais protetivo (“privacy by default”), com transparência para escolhas informadas. Fornecedores devem prevenir e mitigar riscos de exposição a conteúdos e práticas nocivas (abuso sexual, cyberbullying, autolesão, drogas, pornografia, esquemas predatórios etc.), além de avaliar faixa etária do conteúdo conforme classificação indicativa.
Há comando expresso para evitar desenho de uso compulsivo (autoplay, notificações, gamificação que estimula tempo excessivo) e promover educação digital.
Verificação de idade e supervisão parental
A lei inaugura um regime robusto de verificação confiável de idade — vedada a autodeclaração. Lojas de apps e sistemas operacionais devem:
aferir idade com medidas proporcionais e auditáveis;
oferecer mecanismos de supervisão parental;
prover sinal de idade via API segura e minimizada, apenas para as finalidades legais.
Aplicações no escopo precisam receber e respeitar essas informações e, independentemente disso, implementar bloqueios próprios a conteúdos inadequados.
Ferramentas de supervisão devem vir no nível mais alto por padrão, permitindo limitar tempo de uso, restringir interações com adultos não autorizados, controlar sistemas de recomendação (inclusive com opção de desativação) e reduzir rastreamento de geolocalização.
Regras específicas por setor
Jogos eletrônicos: proibidas loot boxes (caixas de recompensa) em jogos direcionados ou de acesso provável por crianças e adolescentes. Recursos de chat e troca de conteúdo devem seguir salvaguardas já previstas em lei e ficam limitados por padrão até consentimento dos responsáveis.
Publicidade: vedado o perfilamento para direcionar anúncios a crianças e adolescentes, bem como análise emocional e uso de realidade aumentada/virtual com fins publicitários para esse público. É proibida a monetização/impulsionamento de conteúdo que erotize crianças e adolescentes.
Redes sociais: contas de menores de 16 anos devem estar vinculadas a um responsável. Plataformas devem aprimorar continuamente a detecção de contas infantis e suspender acessos com indícios de descumprimento, assegurando contraditório.
Remoção, denúncias e transparência
Conteúdos de exploração sexual, sequestro ou aliciamento devem ser removidos e reportados às autoridades, com retenção de dados relacionada ao incidente. Para violações de direitos comunicadas por vítima, MP ou entidades, há dever de retirada com devido processo interno (notificação, fundamentos, recurso).
Plataformas com >1 milhão de usuários nessa faixa etária devem publicar relatórios semestrais (canais de denúncia, moderação, identificação de contas infantis, avaliações de impacto e gestão de riscos).
Governança e sanções
A execução caberá a autoridade administrativa autônoma (a ser instituída), com poderes de regulamentação e fiscalização, vedada vigilância massiva.
Sanções incluem advertência, multa de até 10% do faturamento no Brasil (ou R$ 10 a R$ 1.000 por usuário, limitada a R$ 50 milhões por infração), suspensão e proibição de atividades. Estrangeiras devem ter representante legal no país e podem responder solidariamente.
Quem precisa agir agora
Lojas de aplicativos e sistemas operacionais: desenhar e validar APIs de sinal de idade, fluxos de consentimento parental e controles parentais acessíveis em português.
Redes sociais e plataformas de UGC: vinculação obrigatória de contas até 16 anos, revisão de recomendação, interações e fluxos de denúncia/appeal.
Jogos: remover loot boxes, adequar chat e mecanismos de engajamento.
Todos os controladores: implementar privacy by default, AIA/Relatório de Impacto específico para dados de crianças e adolescentes, classificação etária, prevenção a conteúdos nocivos, e planos de resposta e retenção de evidências para reportes.
Como podemos ajudar
A rra_ assessora na avaliação de risco regulatório, redesenho de jornadas de verificação de idade e supervisão parental, Relatório de Impacto, políticas e termos, classificação etária e programas de conformidade para o ECA Digital e legislação correlata (ECA, LGPD e Marco Civil).
Se seu produto terá “acesso provável”, o relógio já está correndo até 17/03/2026.
Confira o Infográfico exclusivo criado pela RRA_ sobre o novo ECA Digital.



Comentários