Projeto estabelece uma série de obrigações aos provedores de redes sociais para impedir que crianças e adolescentes façam uso dessas plataformas.

A Câmara dos Deputados aprovou nesta quarta-feira (20) projeto de lei que combate a ‘adultização’ de crianças nas redes sociais. O texto volta para nova análise do Senado, onde foi apresentado em 2022.
O projeto estabelece uma série de obrigações aos provedores de redes sociais para impedir que crianças e adolescentes façam uso dessas plataformas, entre elas, garantir que haja vinculação das redes sociais de crianças e adolescentes a um responsável e remover conteúdo considerado abusivo para este público.
O objetivo da lei é garantir a proteção de crianças e adolescentes em ambientes digitais. Ela se aplicará sobre todo produto ou serviço de tecnologia da informação quando houver possibilidade de uso por crianças e adolescentes.
O descumprimento das medidas pode levar a multas que vão de R$10 por usuário cadastrado na plataforma até um limite de R$50 milhões, dependendo da infração. As empresas também poderão ter suas atividades suspensas temporariamente ou definitivamente em caso de descumprimento das medidas.
O que diz o projeto?
No caso de identificação de conteúdos de abuso sexual, sequestro, aliciamento e exploração, as empresas deverão comunicar imediatamente às autoridades nacionais e internacionais.
As empresas também devem disponibilizar meios para que todos os usuários meios sejam denunciados conteúdos com violações aos direitos de crianças e adolescentes. A partir da notificação, a informação deve ser repassada às autoridades para a instauração de investigação.
Para atender a uma demanda da oposição, o relator, deputado Jadyel Alencar (Republicanos-PI), limitou o escopo de denunciantes: apenas vítimas, responsáveis, Ministério Público ou por entidades representativas de defesa dos direitos de crianças e adolescentes, independentemente de ordem judicial.
Para que um conteúdo seja retirado do ar, o usuário que o publicou terá que ser previamente notificado sobre essa retirada, com a explicação do motivo, bem como se a análise do conteúdo foi feita de forma automatizada ou por uma pessoa.
Os usuários terão como recorrer da decisão a partir de um mecanismo que deve estar disponível de maneira acessível e clara na plataforma.
São considerado impróprios ou inadequados para crianças e adolescentes, pelo texto:
- exploração e abuso sexual;
- violência física, intimidação sistemática virtual e assédio;
- indução, incitação, instigação ou auxílio a práticas que levem a danos à saúde física ou mental de crianças e adolescentes, como automutilação e uso de substâncias que causem dependência, por exemplo;
- promoção e comercialização de jogos de azar, apostas, loterias, produtos de tabaco, bebidas alcoólicas, narcóticos ou produtos de comercialização proibida a crianças e adolescentes;
- práticas publicitárias predatórias, injustas ou enganosas;
- conteúdo pornográfico.
Segundo o texto, deverá ser disponibilizado um “exibir aviso claro e visível quando as ferramentas de supervisão parental estiverem em vigor”.
Medidas de prevenção
O projeto determina que os provedores elaborem políticas claras e eficientes de prevenção à intimidação e ao assédio no ambiente virtual.
Também caberá às empresas desenvolver programas educativos para crianças, adolescentes, pais, educadores, funcionários e equipes de suporte sobre os riscos, formas de prevenção e enfrentamento dessas práticas, nos termos de regulamento.
As redes que tiverem mais de 1 milhão de crianças ou adolescentes como usuários deverão apresentar um relatório semestral com a quantidade de denúncias de abusos recebidas, a quantidade de conteúdo que foi moderada, bem como o detalhamento do gerenciamento de risco à segurança e à saúde de crianças e adolescentes identificados.