Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Início em Futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Os chatbots estão a ‘validar constantemente tudo’ mesmo quando estás suicidável. Nova pesquisa mede quão perigosa é realmente a psicose de IA
A inteligência artificial passou rapidamente de uma tecnologia de nicho para uma companheira do dia a dia, com milhões de pessoas recorrendo a chatbots para aconselhamento, apoio emocional e conversas. Mas um número crescente de pesquisas e testemunhos de especialistas sugerem que, devido ao fato de os chatbots serem tão bajuladores e de as pessoas usá-los para tudo, isso pode estar contribuindo para um aumento de sintomas delirantes e de mania em utilizadores com problemas de saúde mental.
Vídeo Recomendado
Um novo estudo da Universidade de Aarhus, na Dinamarca, mostra que o uso aumentado de chatbots pode levar ao agravamento de sintomas de delírios e mania em comunidades vulneráveis. O professor Søren Dinesen Østergaard, um dos investigadores do estudo — que analisou registros eletrônicos de saúde de quase 54.000 pacientes com doenças mentais — alerta que os chatbots de IA são projetados para direcionar-se às pessoas mais vulneráveis.
“Isso apoia nossa hipótese de que o uso de chatbots de IA pode ter consequências negativas significativas para pessoas com doenças mentais,” disse Østergaard no estudo, divulgado em fevereiro. Seu trabalho baseia-se em seu estudo de 2023, que descobriu que os chatbots podem causar uma “disonância cognitiva [que] pode alimentar delírios em pessoas com maior propensão à psicose.”
Outros psicólogos aprofundam os danos dos chatbots, dizendo que eles foram intencionalmente projetados para sempre reafirmar o usuário — algo particularmente perigoso para quem tem problemas de saúde mental, como mania e esquizofrenia. “O chatbot confirma e valida tudo o que eles dizem. Ou seja, nunca havíamos visto algo assim com pessoas com transtornos delirantes, onde alguém os reforça constantemente,” afirmou a Dra. Jodi Halpern, professora de bioética na Escola de Saúde Pública da UC Berkeley, ao Fortune.
O Dr. Adam Chekroud, professor de psiquiatria na Yale University e CEO da empresa de saúde mental Spring Health, foi ainda mais longe, chamando um chatbot de “um grande bajulador” que “constantly valida tudo o que as pessoas dizem de volta.”
No centro da pesquisa, liderada por Østergaard e sua equipe no Hospital da Universidade de Aarhus, está a ideia de que esses chatbots são projetados intencionalmente com tendências bajuladoras, ou seja, eles frequentemente incentivam em vez de oferecer uma visão divergente.
“Os chatbots de IA têm uma tendência inerente a validar as crenças do usuário. É óbvio que isso é altamente problemático se o usuário já tem um delírio ou está em processo de desenvolvê-lo. De fato, parece contribuir significativamente para a consolidação, por exemplo, de delírios grandiosos ou paranoicos,” escreveu Østergaard.
Modelos de linguagem grandes são treinados para serem úteis e agradáveis, muitas vezes validando as crenças ou emoções do usuário. Para a maioria das pessoas, isso pode parecer um apoio. Mas para indivíduos com esquizofrenia, transtorno bipolar, depressão severa ou transtorno obsessivo-compulsivo, essa validação pode amplificar paranoias, grandiosidade ou pensamentos autodestrutivos.
Estudo baseado em evidências confirma as alegações
Por serem tão ubiquamente presentes, a quantidade de chatbots é parte de um problema maior que cresce para pesquisadores e especialistas: as pessoas recorrem a chatbots para ajuda e aconselhamento — o que, por si só, não é necessariamente algo ruim — mas não encontram o mesmo tipo de resistência a certas ideias que um humano ofereceria.
Agora, um dos primeiros estudos populacionais a examinar a questão sugere que os riscos não são hipotéticos.
A pesquisa de Østergaard e sua equipe identificou casos em que o uso intensivo ou prolongado de chatbots parecia agravar condições existentes, com uma porcentagem muito alta de estudos de caso mostrando que o uso de chatbots reforçou pensamentos delirantes e episódios de mania, especialmente entre pacientes com transtornos graves, como esquizofrenia ou transtorno bipolar.
Além de delírios e mania, o estudo encontrou um aumento na ideação suicida, automutilação, comportamentos alimentares desordenados e sintomas obsessivo-compulsivos. Em apenas 32 casos documentados, de quase 54.000 registros de pacientes analisados, os pesquisadores descobriram que o uso de chatbots aliviou a solidão.
“Apesar de nosso conhecimento nesta área ainda ser limitado, eu diria que agora sabemos o suficiente para afirmar que o uso de chatbots de IA é arriscado se você tiver uma doença mental grave — como esquizofrenia ou transtorno bipolar. Recomendo cautela,” afirma Østergaard.
Especialistas psicólogos alertam para tendências bajuladoras
Especialistas psicólogos estão cada vez mais preocupados com o uso de chatbots em companheirismo e quase em contextos de saúde mental. Histórias surgiram de pessoas que se apaixonaram por seus chatbots, outras supostamente fizeram perguntas que poderiam levar a crimes, e nesta semana, um supostamente orientou um homem a cometer “massacre” em um grande aeroporto.
Alguns especialistas em saúde mental acreditam que a rápida adoção de companheiros de IA está superando o desenvolvimento de salvaguardas de segurança.
Chekroud, que também pesquisou extensivamente o tema analisando vários modelos de chatbots de IA na Vera-MH, descreveu o cenário atual de IA como uma crise de segurança que se desenrola em tempo real.
Ele afirmou que um dos maiores problemas dos chatbots é que eles não sabem quando parar de agir como um profissional de saúde mental. “Será que eles mantêm limites? Como, eles reconhecem que ainda são apenas uma IA e reconhecem suas próprias limitações, ou estão agindo mais como terapeutas para as pessoas?”
Milhões de pessoas usam atualmente chatbots para conversas semelhantes a terapia ou apoio emocional. Mas, ao contrário de dispositivos médicos ou profissionais licenciados, esses sistemas operam sem supervisão clínica padronizada ou regulamentação.
“Neste momento, simplesmente não é seguro,” disse Chekroud em uma discussão recente com Fortune sobre segurança de IA. “A oportunidade de causar dano é simplesmente grande demais.”
Como esses sistemas avançados de IA frequentemente se comportam como “grandes bajuladores,” eles tendem a concordar mais com o usuário do que desafiar afirmações potencialmente perigosas ou orientá-los para ajuda profissional. Assim, o usuário passa mais tempo com o chatbot em uma bolha. Para Østergaard, isso é uma combinação preocupante.
“A combinação parece ser bastante tóxica para alguns usuários,” disse Østergaard à Fortune. “À medida que os chatbots oferecem mais validação, combinada com a falta de resistência, alimenta-se um ciclo de uso prolongado em uma câmara de eco. Um processo perfeitamente cíclico que alimenta cada extremidade.”
Para mitigar o risco, Chekroud propôs estruturas de segurança que permitiriam aos sistemas de IA detectar quando um usuário pode estar entrando em uma “espiral mental destrutiva.” Em vez de responder com uma única advertência ao usuário sobre procurar ajuda — como fazem atualmente chatbots como o ChatGPT da OpenAI ou o Claude da Anthropic — esses sistemas realizariam avaliações de múltiplas etapas para determinar se o usuário precisa de intervenção ou encaminhamento a um profissional humano.
Outros pesquisadores afirmam que a própria ubiquidade dos chatbots é o que os torna atraentes: sua capacidade de fornecer validação imediata pode minar a razão pela qual os usuários recorrem a eles em primeiro lugar.
Halpern afirmou que a empatia autêntica exige o que ela chama de “curiosidade empática.” Em relacionamentos humanos, a empatia muitas vezes envolve reconhecer diferenças, navegar por desacordos e testar suposições sobre a realidade.
Por outro lado, os chatbots são projetados para manter o rapport e sustentar o engajamento.
“Sabemos que quanto mais tempo a relação com o chatbot dura, mais ela se deteriora, e maior o risco de algo perigoso acontecer,” disse Halpern à Fortune.
Para pessoas com transtornos delirantes, um sistema que valida constantemente suas crenças pode enfraquecer sua capacidade de realizar verificações internas da realidade. Em vez de ajudar os usuários a desenvolver habilidades de enfrentamento, Halpern afirmou que uma relação puramente afirmativa com o chatbot pode degradar essas habilidades ao longo do tempo.
Ela também destaca a escala do problema. Até o final de 2025, a OpenAI divulgou estatísticas que mostram que cerca de 1,2 milhão de pessoas por semana usam o ChatGPT para discutir suicídio, ilustrando o quão profundamente esses sistemas estão integrados em momentos de vulnerabilidade.
Há espaço para melhorias no cuidado de saúde mental
No entanto, nem todos os especialistas estão rápidos em soar o alarme sobre o funcionamento dos chatbots na área de saúde mental. O psiquiatra e neurocientista Dr. Thomas Insel afirmou que, por serem tão acessíveis — gratuitos, online, sem estigma de pedir ajuda a um bot em vez de ir à terapia — há espaço para a indústria médica explorar os chatbots como uma forma de avançar na área de saúde mental.
“O que não sabemos é até que ponto isso tem sido realmente útil para muitas pessoas,” disse Insel à Fortune. “Não são apenas os números, mas a escala do engajamento.”
A saúde mental, em comparação com outros campos da medicina, muitas vezes é negligenciada por quem mais precisa dela.
“Acontece que, ao contrário da maioria da medicina, a grande maioria das pessoas que poderiam e deveriam estar em cuidado não está,” afirmou Insel, acrescentando que os chatbots oferecem às pessoas a oportunidade de buscar ajuda de maneiras que o fazem “questionar se é uma acusação ao sistema de saúde mental que temos, porque as pessoas não compram o que vendemos, ou não conseguem obter, ou não gostam de como é apresentado a elas.”
Para os profissionais de saúde mental que atendem pacientes que discutem o uso de chatbots online, Østergaard disse que eles devem ouvir atentamente o que seus pacientes realmente estão usando. “Eu encorajaria meus colegas a fazerem perguntas adicionais sobre o uso e suas consequências,” disse Østergaard à Fortune. “Acho importante que os profissionais de saúde mental estejam familiarizados com o uso de chatbots de IA. Caso contrário, fica difícil fazer perguntas relevantes.”
Os pesquisadores originais do estudo concordam com Insel nesse ponto: por ser tão universal, eles só puderam analisar registros de pacientes que mencionaram o uso de um chatbot, alertando que o problema pode ser ainda mais amplo do que seus resultados indicaram.
“Tenho medo que o problema seja mais comum do que a maioria das pessoas pensa,” disse Østergaard. “Estamos apenas vendo a ponta do iceberg.”
Se você está tendo pensamentos suicidas, entre em contato com a Linha de Apoio ao Suicídio e Crises pelo 988 ou pelo 1-800-273-8255.
Participe conosco na Cúpula de Inovação no Local de Trabalho da Fortune, de 19 a 20 de maio de 2026, em Atlanta. A próxima era de inovação no trabalho já começou — e o manual antigo está sendo reescrito. Neste evento exclusivo e de alta energia, os líderes mais inovadores do mundo se reunirão para explorar como IA, humanidade e estratégia convergem para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se agora.