Salve Geeks, como vocês estão? Adolescentes e chatbots já fazem parte da rotina digital de muitos jovens: segundo o Pew Research Center, cerca de três em cada 10 adolescentes nos EUA usam chatbots de IA diariamente — e a presença dessas ferramentas levanta questões importantes sobre segurança e saúde mental.
O que o estudo do Pew mostra
O levantamento do Pew Research Center aponta que 97% dos adolescentes usam a internet todos os dias e que aproximadamente 40% dizem estar "quase constantemente online" — abaixo dos 46% do ano anterior, mas bem acima dos 24% registrados uma década atrás. Com a popularização dos chatbots, essa tecnologia passou a compor a experiência online dos jovens e a influenciar comportamentos, interações e rotina escolar.
Uso de chatbots em números
- Três em cada 10 adolescentes usam chatbots de IA todos os dias; 4% relatam uso quase constante.
- 59% dizem usar o ChatGPT, tornando-o mais de duas vezes mais popular que o Gemini (23%) e o Meta AI (20%).
- 46% usam chatbots pelo menos várias vezes por semana; 36% não usam esses serviços.
Quem usa mais: idade, raça e renda
A pesquisa detalha diferenças por raça, idade e condição socioeconômica. Cerca de 68% dos adolescentes negros e hispânicos relataram usar chatbots, ante 58% dos adolescentes brancos. Adolescentes negros eram também mais propensos a usar serviços como Gemini e Meta AI do que seus pares brancos.
Em relação ao tempo online, 55% dos adolescentes negros e 52% dos hispânicos afirmam estar online "quase constantemente", contra 27% dos adolescentes brancos. Adolescentes de 15 a 17 anos usam redes sociais e chatbots com mais frequência que jovens de 13 a 14 anos. Sobre renda familiar, 62% dos adolescentes em lares com renda superior a US$75.000 declaram usar ChatGPT, contra 52% abaixo desse patamar; já o Character.AI tem maior participação (14%) em lares com renda menor.
Quais riscos foram identificados
Embora muitas interações com chatbots sejam inofensivas — perguntas sobre dever de casa, curiosidades e até ajuda para programar um script básico — existem relatos preocupantes que mostram efeitos adversos. Processos contra algumas empresas envolvem alegações de que conversas com chatbots contribuíram para danos psicológicos e, em casos extremos, suicídio. As famílias dos adolescentes Adam Raine e Amaurie Lacey entraram com ações relacionadas ao uso do ChatGPT; a criadora do modelo, a OpenAI, afirmou que recursos de segurança foram burlados no caso citado pela empresa.
Plataformas como o Character.AI, que oferecem experiências de interpretação de papéis, também passaram por escrutínio depois de casos trágicos. A empresa restringiu o acesso de menores e lançou um produto alternativo, chamado "Stories" (Histórias), voltado para públicos mais jovens e com formato parecido a um jogo de escolha — uma medida para reduzir riscos potenciais.
Segundo dados citados pela própria OpenAI, conversas sobre suicídio representam uma fração (0,15%) das interações do ChatGPT por semana — porém, em plataformas de escala massiva esse percentual ainda corresponde a um número grande de usuários. Esses fatos reforçam que, mesmo quando as ferramentas não são projetadas para suporte emocional, os usuários as utilizam assim e as empresas têm responsabilidade sobre mitigação e segurança.
Termos úteis explicados
- Chatbot: Programa que usa processamento de linguagem natural para responder a perguntas e manter diálogos. Chatbots avançados, chamados modelos de linguagem, geram texto com base em enormes volumes de dados.
- Doomscrolling: Hábito de passar longos períodos rolando notícias negativas nas redes, que pode agravar ansiedade e depressão.
- Moderação: Conjunto de filtros, regras e intervenções humanas/automáticas para bloquear ou sinalizar conteúdo perigoso.
Como famílias, escolas e plataformas podem reduzir riscos
Equilibrar o uso de tecnologia com segurança é possível. Algumas ações práticas:
- Estabelecer limites de tempo de tela e combinar atividades offline criativas (hobbies, jogos de tabuleiro, esportes).
- Conversar abertamente sobre o que os adolescentes fazem online e sobre como as IAs funcionam — explicar, por exemplo, que chatbots não são terapeutas.
- Usar controles parentais e configurações de conta que restringem acessos e salvam histórico de interação quando apropriado.
- Ensinar sinais de alerta para sofrimento psicológico e canais de ajuda local; em casos de risco real, buscar apoio profissional imediatamente.
- Exigir transparência das plataformas: políticas de segurança, canais de denúncia e relatórios públicos de moderação.
Boas práticas para adolescentes (dicas rápidas)
- Evitar compartilhar informações pessoais sensíveis com chatbots.
- Preferir ferramentas oficiais com políticas claras de segurança.
- Fazer pausas regulares para reduzir o impacto do uso contínuo — troque o doomscrolling por uma playlist ou por um jogo off-line.
Perguntas frequentes
Chatbots são perigosos por si só?
Não. A maior parte das interações é inofensiva. O risco surge quando usuários em sofrimento emocional encontram respostas inadequadas ou quando ferramentas são usadas como substituto de apoio profissional.
Como saber se um chatbot tem segurança adequada?
Procure por informações públicas sobre moderação, limites de idade, relatórios de transparência e mecanismo de denúncia. Empresas responsáveis divulgam políticas e atualizações de segurança.
Que papel as escolas podem ter?
As escolas podem ensinar literacia digital, criar protocolos de encaminhamento para crises e integrar discussões sobre bem‑estar digital à grade curricular.
O balanço entre inovação e proteção é o grande desafio para pais, educadores e empresas. A tecnologia traz ferramentas potentes, mas a responsabilidade coletiva — de desenvolvedores a cuidadores — é o que fará a diferença para que a experiência seja segura e enriquecedora para os mais jovens. Para dados e análises completas, consulte o relatório do Pew Research Center e matérias de acompanhamento no TechCrunch.
