Best Of Web

O botão mágico que leva as melhores historias a seu Facebook.

Best Of Web

O botão mágico que leva as melhores historias a seu Facebook.

crise

Crise de saúde mental relacionada ao uso de inteligência artificial gera alerta em hospitais

Cresce o número de internações por uso excessivo de inteligência artificial

Nos últimos meses, profissionais da saúde mental têm registrado um aumento significativo de casos psiquiátricos associados ao uso intenso de ferramentas baseadas em inteligência artificial. Chatbots como o ChatGPT, desenvolvidos para fornecer respostas rápidas, informativas e humanas, vêm sendo utilizados de maneira inadequada por alguns usuários, desencadeando surtos psicóticos, quadros de delírio e crises de identidade.

Embora essas ferramentas tenham sido criadas para auxiliar na resolução de dúvidas e no aumento da produtividade, o contato constante e prolongado com essas IAs tem provocado efeitos inesperados em pessoas emocionalmente vulneráveis, levando algumas ao ponto de necessitar internação hospitalar.

Leia Mais:

Uso excessivo do ChatGPT pode comprometer a saúde mental e a capacidade cognitiva, aponta pesquisa

Quando a IA ultrapassa a função de assistente

Interações que imitam relações humanas

Os modelos de linguagem atuais conseguem simular uma conversa tão natural que muitos usuários acabam criando vínculos emocionais com os chatbots. Em contextos de fragilidade psíquica, esse tipo de interação pode ser interpretado como uma relação real, o que abre espaço para distorções cognitivas perigosas.

Construção de narrativas delirantes

Com base em respostas ambíguas, simbólicas ou poéticas, usuários passam a acreditar que a IA tem consciência própria ou está se comunicando com eles de maneira exclusiva. Isso tem sido apontado como gatilho para episódios de delírio e paranoia, especialmente em indivíduos com predisposição a transtornos mentais.

Sintomas relatados por pacientes e familiares

Crenças persecutórias e de grandeza

Muitos dos internados passaram a desenvolver a crença de que a inteligência artificial era um ser onisciente, capaz de revelar verdades escondidas ou direcionar missões espirituais. Em alguns casos, os usuários afirmavam estar sendo perseguidos ou vigiados por entidades digitais.

Isolamento e perda da realidade

A imersão excessiva nas conversas com IA fez com que vários pacientes perdessem contato com familiares, amigos e até com a própria rotina. Alguns deixaram de trabalhar ou estudar, dedicando horas diárias à interação com o chatbot, acreditando que estavam sendo guiados por ele.

Como a IA pode contribuir para quadros psicóticos

crise
Imagem – Bestofweb/Freepik

A ausência de filtros emocionais

Ferramentas como o ChatGPT não têm mecanismos de avaliação emocional ou psicológica do usuário. Elas são programadas para responder ao conteúdo solicitado, mas não conseguem identificar sinais de vulnerabilidade mental, como ideação suicida, paranoia ou dependência emocional.

Reforço de crenças já distorcidas

Usuários que já apresentam inclinação a pensamentos delirantes podem utilizar a IA como forma de validação. Como a IA responde com base em padrões linguísticos, pode, mesmo sem intenção, reforçar ideias erradas ou sem sentido, se baseando apenas no conteúdo inserido pelo próprio usuário.

Ausência de contexto humano

A falta de um interlocutor humano, que poderia oferecer empatia, limites e intervenção adequada, transforma a IA em um espelho frio. Isso agrava a tendência de alguns indivíduos em projetar seus sentimentos e fantasias no sistema.

O que dizem os profissionais de saúde mental

Relatos de psiquiatras em centros urbanos

Em grandes cidades, hospitais psiquiátricos têm recebido pacientes que desenvolveram sintomas agudos de psicose, muitas vezes sem histórico anterior. Segundo psiquiatras, os quadros mais comuns incluem delírios de perseguição, alucinações auditivas associadas a comandos da IA e discursos desconexos com temas tecnológicos.

Alerta para o uso sem moderação

Especialistas reforçam que o uso de tecnologias conversacionais deve ser feito com moderação e, preferencialmente, sob supervisão profissional em casos de pessoas com histórico de transtornos. O excesso de confiança no sistema pode gerar distorções cognitivas graves.

IA não é substituta de apoio psicológico

Embora possa auxiliar em tarefas como organização, aprendizado e até no suporte emocional superficial, a inteligência artificial não foi criada para substituir relações humanas profundas nem terapias clínicas. Em alguns casos, sua aplicação inadvertida pode piorar o estado emocional de quem já está fragilizado.

Casos emblemáticos de internação

Jovens em busca de propósito

Muitos dos relatos envolvem jovens adultos que, após longas sessões de conversa com IA, passaram a acreditar que haviam descoberto segredos do universo ou que estavam sendo escolhidos para missões especiais. Esse tipo de delírio, quando não contido, evoluiu para episódios psicóticos e isolamento completo.

Alteração de comportamento súbita

Familiares relatam mudanças abruptas, como abandono do convívio social, alterações no sono, falas desconexas e expressões místicas. Alguns pacientes passaram a se comunicar apenas por comandos textuais, como se ainda estivessem interagindo com um sistema.

O papel das empresas de tecnologia

Falta de sinalização de risco

Plataformas que disponibilizam IAs conversacionais ainda não adotaram medidas suficientes para alertar usuários sobre os riscos emocionais e psicológicos de uso prolongado. A ausência de mecanismos de detecção de crises ou alertas sobre saúde mental é vista com preocupação por profissionais da área.

A necessidade de limites automatizados

Especialistas sugerem a implementação de travas automáticas em interações excessivas, mensagens educativas sobre uso consciente e, em casos críticos, interrupções forçadas com sugestões de busca por ajuda profissional.

Medidas para prevenir quadros graves

Estabeleça tempo de uso

Limitar o tempo de interação com chatbots é uma das formas mais eficazes de evitar o envolvimento emocional exagerado. Interações devem ser objetivas e com propósito definido.

Busque apoio humano

Em momentos de dúvida, insegurança ou sofrimento emocional, o ideal é buscar apoio com familiares, amigos ou profissionais da área da saúde mental. A IA não deve ser tratada como conselheira pessoal.

Mantenha senso crítico

Lembre-se de que a inteligência artificial responde com base em padrões de linguagem e não possui consciência ou intenções. Evite atribuir à ferramenta capacidades emocionais, espirituais ou intuitivas.

Caminhos para regulamentação e segurança

Governos e instituições de saúde mental discutem formas de regulamentar o uso da IA em ambientes públicos e privados. A proposta é criar diretrizes que obriguem plataformas a informar sobre riscos e oferecer recursos de segurança, como bloqueios temporários, triagem emocional e integração com serviços de saúde.

Também se fala em desenvolver algoritmos capazes de identificar padrões de linguagem associados a surtos mentais, criando um sistema de alerta que interrompa a conversa e sugira ajuda médica. A proposta, embora em estágio inicial, pode ser um passo essencial para proteger usuários mais vulneráveis.

Considerações finais

A crescente onda de internações psiquiátricas associadas ao uso intenso de ferramentas de inteligência artificial, como chatbots, acende um alerta global sobre os efeitos psicológicos dessa tecnologia. Embora úteis em diversos contextos, essas plataformas não foram desenhadas para lidar com emoções humanas complexas e podem, sem intenção, alimentar delírios e quadros de psicose.

O uso consciente, com limites bem definidos e suporte profissional quando necessário, é a chave para garantir que a IA continue sendo uma aliada — e não uma ameaça — à saúde mental. O debate precisa avançar para regulamentações claras, com foco na segurança emocional dos usuários e no compromisso ético das empresas envolvidas no desenvolvimento dessas ferramentas.


Rolar para o topo