A exposição de crianças e adolescentes nas redes sociais deixou de ser um tema restrito a especialistas. Nos últimos anos, casos de exploração, monetização de conteúdos com menores e episódios de "adultização" ganharam repercussão e ampliaram a pressão sobre as plataformas. O debate saiu do ambiente digital e chegou ao Congresso.

Nesse cenário, entrou em vigor, em 17 de setembro de 2025, a Lei nº 15.211, conhecida como ECA Digital. A proposta é atualizar a aplicação do Estatuto da Criança e do Adolescente para uma realidade em que a vida on-line começa cada vez mais cedo.

A discussão ganhou novo fôlego após a repercussão de um vídeo publicado pelo influenciador Felca, em agosto de 2025. Ao expor a presença de menores em conteúdos sexualizados e altamente viciantes, com fins de monetização, o episódio evidenciou fragilidades nos mecanismos de proteção das plataformas e acelerou a tramitação da nova legislação.

O Brasil, aliás, não é um caso isolado. Nos Estados Unidos, o COPPA regula a coleta de dados de crianças. No Reino Unido, o Online Safety Act amplia a responsabilidade das plataformas sobre conteúdos prejudiciais. Na Austrália, menores de 16 anos estão proibidos de manter contas em redes sociais. Em diferentes formatos, a mensagem é semelhante: a infância também precisa de proteção no ambiente digital.

O que é o ECA Digital?

Na prática, o ECA Digital amplia a aplicação do Estatuto da Criança e do Adolescente ao ambiente on-line. A lei dialoga com normas já existentes, como a Lei Geral de Proteção de Dados (LGPD) e o Marco Civil da Internet, e também alcança o contexto escolar.

Um ponto importante é que a legislação não se limita a plataformas voltadas ao público infantojuvenil. Segundo a pesquisa TIC Kids Online Brasil, 83% das crianças e adolescentes que usam internet no país têm contas em redes como WhatsApp, Instagram, TikTok e YouTube, espaços que não foram originalmente pensados para esse público. Diante desse cenário, tratar a presença de menores como exceção deixou de fazer sentido.

O que muda para as plataformas?

As plataformas têm até março deste ano para implementar todas as medidas necessárias para estarem em conformidade com o ECA Digital, que estabelece regras específicas e punições para plataformas digitais com foco na proteção de crianças e adolescentes.

Plataformas com grande presença de menores passam a ter deveres mais claros. Entre eles estão a transparência nos mecanismos de verificação de idade, sem aceitar a autodeclaração, informações objetivas sobre os critérios de moderação de conteúdo e a disponibilização de canais definidos para o recebimento e tratamento de denúncias.

As empresas deverão adotar métodos mais robustos de verificação etária e passarão a vincular contas de menores de 16 anos aos perfis de seus responsáveis. Além disso, conteúdos que envolvam abuso sexual, exploração, aliciamento, automutilação ou incentivo ao suicídio deverão ser removidos com rapidez.

A aplicação da lei será monitorada pela Agência Nacional de Proteção de Dados, ANPD. A lógica proposta é menos reativa e mais preventiva: criar estruturas permanentes de proteção e não apenas agir quando um caso ganha repercussão pública.

Qual é o papel das escolas?

A legislação também amplia a responsabilidade das instituições de ensino. Não se trata apenas de ensinar o uso técnico das ferramentas digitais, mas de incorporar uma educação digital crítica. Isso envolve orientar crianças e adolescentes a reconhecer riscos como desinformação, publicidade disfarçada, manipulação algorítmica e uso excessivo de aplicativos. Em outras palavras, compreender como funcionam as plataformas e quais interesses estão em jogo.

Uma mudança de lógica

O ECA Digital sinaliza uma atualização necessária diante de um cenário em que a infância está cada vez mais conectada. Ao reforçar a responsabilidade das empresas e destacar o papel das escolas, a lei propõe uma proteção mais estruturada. Agora, o debate tende a se concentrar menos na necessidade de agir e mais na forma como essas medidas serão aplicadas e fiscalizadas no dia a dia.