Embora isso possa ser uma reação um pouco exagerada, preocupações legítimas com segurança, privacidade e psicologia estão surgindo devido ao uso frequente da tecnologia pelos jovens. Como pai ou mãe, você não pode presumir que todos os provedores de plataformas tenham salvaguardas eficazes e apropriadas para crianças. Mesmo quando existem proteções, a aplicação não é necessariamente consistente e a própria tecnologia está evoluindo mais rapidamente do que as políticas.
Os chatbots com IA passaram a ocupar um espaço relevante no cotidiano desde que ganharam popularidade, há pouco mais de três anos. O ChatGPT, por exemplo, afirma ter cerca de 700 milhões de usuários ativos por semana, muitos deles jovens. Um estudo realizado no Reino Unido, em julho de 2025, revelou que quase dois terços (64%) das crianças já utilizam esse tipo de ferramenta. Em paralelo, uma proporção semelhante de pais demonstra preocupação com o fato de seus filhos passarem a enxergar chatbots de IA como pessoas reais.
Embora esse receio possa parecer exagerado à primeira vista, ele reflete preocupações legítimas relacionadas à segurança, à privacidade e aos impactos psicológicos do uso frequente dessa tecnologia por crianças e adolescentes. Para pais e responsáveis, não é prudente presumir que todas as plataformas adotem mecanismos de proteção eficazes e adequadas ao público infantil. Mesmo quando tais proteções existem, sua aplicação nem sempre é consistente, e a tecnologia continua evoluindo em um ritmo mais acelerado do que as políticas e regulações criadas para acompanhá-la.
Quais são os riscos?
Nossos filhos utilizam a inteligência artificial generativa (GenAI) de diversas maneiras. Alguns valorizam seu apoio na realização do dever de casa. Outros passam a tratar o chatbot como um companheiro digital, pedindo conselhos e confiando em suas respostas como fariam com um amigo próximo. Esse comportamento envolve uma série de riscos evidentes.
O primeiro deles é de natureza psicológica e social. Crianças e adolescentes atravessam uma fase intensa de desenvolvimento emocional e cognitivo, o que os torna mais vulneráveis. Há o risco de que passem a confiar em companheiros de IA em detrimento da construção de amizades genuínas com colegas, ampliando o isolamento social. Além disso, como os chatbots são projetados para agradar aos usuários, podem acabar reforçando ou amplificando dificuldades já existentes, como transtornos alimentares, automutilação e pensamentos suicidas. Soma-se a isso a possibilidade de que o tempo gasto com a IA substitua não apenas interações humanas, mas também momentos dedicados à família ou aos estudos.
Também existem riscos relacionados ao tipo de conteúdo ao qual um chatbot de GenAI pode permitir que a criança tenha acesso na internet. Embora os principais provedores adotem mecanismos de proteção para limitar o acesso a links e materiais inadequados ou perigosos, essas barreiras nem sempre funcionam de forma eficaz. Em alguns casos, os sistemas podem contornar suas próprias medidas de segurança e fornecer conteúdo sexualmente explícito ou violento. Crianças e adolescentes com maior familiaridade tecnológica podem, inclusive, conseguir "desbloquear" o sistema por meio de comandos específicos.
As chamadas alucinações, situações em que a IA produz informações incorretas apresentadas de forma convincente, representam outra fonte relevante de preocupação. Em ambientes corporativos, esse tipo de falha pode resultar em danos reputacionais e riscos legais. Para crianças e adolescentes, o perigo é ainda maior, pois podem aceitar informações falsas como se fossem fatos, o que pode levá-los a tomar decisões equivocadas, especialmente em temas sensíveis, como saúde e relacionamentos.
Por fim, é fundamental considerar os riscos à privacidade. Caso a criança insira dados pessoais ou financeiros sensíveis em um prompt, essas informações podem ser armazenadas pelo provedor da plataforma. Em teoria, elas podem ser acessadas por terceiros, expostas em um vazamento de dados ou até reaparecer em respostas fornecidas a outros usuários. Da mesma forma que se recomenda cautela no compartilhamento excessivo de informações nas redes sociais, o ideal é orientar as crianças a minimizar o volume de dados pessoais compartilhados com chatbots de IA generativa.
Alguns sinais de alerta a serem observados
É verdade que as plataformas de IA reconhecem esses riscos e adotam medidas para mitigá-los. No entanto, essas ações ainda são limitadas. Dependendo do país onde a criança vive e do chatbot utilizado, pode haver pouca ou nenhuma verificação de idade, além de falhas na moderação de conteúdo. Diante desse cenário, a responsabilidade recai principalmente sobre pais e responsáveis, que devem se antecipar a possíveis ameaças por meio de monitoramento proativo e orientação contínua.
A seguir, alguns sinais de que a criança ou o adolescente pode estar desenvolvendo uma relação pouco saudável com a IA:
- Redução do tempo dedicado a atividades extracurriculares e ao convívio com amigos e familiares.
- Ansiedade quando não consegue acessar o chatbot, além de tentativas de esconder o uso excessivo.
- Referências ao chatbot como se fosse uma pessoa real.
- Repetição de desinformações evidentes apresentadas como "fatos".
- Busca de orientação junto à IA sobre temas graves, como problemas de saúde mental, identificada por meio do histórico de conversas.
- Acesso a conteúdo adulto ou inadequado fornecido pela IA.
Hora de conversar
No Brasil, não há uma legislação específica que trate exclusivamente do uso de chatbots com IA por crianças e adolescentes. Ainda assim, normas como o Estatuto da Criança e do Adolescente (ECA) e a Lei Geral de Proteção de Dados (LGPD) estabelecem princípios de proteção, especialmente no que diz respeito ao tratamento de dados pessoais de menores de idade. Na prática, porém, a aplicação dessas diretrizes nem sempre é eficaz, o que faz com que a responsabilidade recaia, muitas vezes, sobre pais e responsáveis. Mais do que impor controles técnicos, o diálogo contínuo é essencial. Os melhores resultados surgem da combinação entre ferramentas de controle, educação e orientação, sempre de forma aberta, clara e sem confronto.
No dia a dia, crianças e adolescentes já convivem com adultos orientando suas decisões na escola, em casa e em atividades extracurriculares. Por isso, o contato com a IA deve ser tratado como uma conversa de mão dupla, em que eles se sintam seguros para relatar experiências, dúvidas e preocupações, sem medo de punição. É importante explicar os riscos do uso excessivo, das alucinações, do compartilhamento indevido de dados e da dependência da IA para lidar com questões sensíveis. Ajude-os a entender que chatbots não são pessoas reais capazes de pensar ou sentir, mas sistemas projetados para simular interações humanas. Estimule o pensamento crítico, a checagem das respostas geradas pela IA e reforce que nenhuma interação com uma máquina substitui uma conversa com os pais ou responsáveis.
Quando necessário, essa abordagem educativa pode ser complementada por regras claras para limitar o uso da IA, da mesma forma que se estabelecem limites para redes sociais ou para o tempo de tela. Também é recomendável restringir o acesso a plataformas adequadas à faixa etária e ativar controles parentais nos aplicativos utilizados, facilitando o monitoramento e a redução de riscos. Oriente seus filhos a nunca compartilhar informações pessoais identificáveis com chatbots e ajuste as configurações de privacidade para minimizar a possibilidade de vazamentos não intencionais.
Crianças e adolescentes precisam de pessoas reais no centro de seu desenvolvimento emocional. A IA pode ser uma ferramenta útil em diversos contextos, mas, até que seu uso seja feito de forma equilibrada e responsável, deve ser acompanhada de perto. Em nenhuma circunstância a tecnologia deve substituir o contato humano.




