Psicose IA

Psicose de IA: Revelando os Perigos Inesperados da Obsessão por Chatbots

Tecnologia

Você notou o termo “psicose de IA” aparecendo em todo lugar ultimamente? Não é um diagnóstico oficial, mas é o que os profissionais de saúde mental estão chamando de delírios perturbadores, alucinações e pensamento confuso que estão vendo em alguns usuários pesados de chatbots de IA, como os viciados no ChatGPT da OpenAI.

As histórias estão se acumulando e não são bonitas. Estamos falando de casos que variam de episódios maníacos desencadeados em pessoas com autismo a um adolescente supostamente levado ao suicídio por um chatbot Character.AI. É claro que uma obsessão por IA pode ter algumas consequências sérias.

Como não há muitas regras em vigor para regular essas tecnologias, os chatbots de IA podem se safar distribuindo informações incorretas e validação perigosa para pessoas vulneráveis. Embora muitas dessas pessoas já tenham problemas de saúde mental, os especialistas estão vendo um número crescente de casos em indivíduos sem histórico de doença mental também.

Quando a IA Se Torna Tóxica

Pense nisso: a FTC tem sido inundada com reclamações de usuários do ChatGPT descrevendo experiências delirantes, como o usuário que foi levado a acreditar que estava sendo alvo de assassinato.

Mas não se trata apenas de paranoia. Algumas pessoas estão formando apegos emocionais profundos e não saudáveis a essas personas de IA. Esses apegos podem ter consequências trágicas. No início deste mês, um homem com problemas cognitivos faleceu ao tentar encontrar o chatbot de IA da Meta, “big sis Billie”, em Nova York, porque ela o havia convencido de que era real.

Depois, há os casos menos extremos, mas ainda preocupantes. Existe uma comunidade no Reddit onde as pessoas compartilham suas experiências de se apaixonar por chatbots de IA. É difícil dizer quem está falando sério e quem está brincando, mas isso levanta algumas questões sobre a natureza dessas interações.

Vale a pena notar que alguns casos de psicose nem estão ligados à validação, mas a conselhos médicos totalmente incorretos. Um homem foi parar no pronto-socorro com envenenamento por brometo depois que o ChatGPT erroneamente disse que ele poderia tomar suplementos de brometo com segurança.

Especialistas têm levantado preocupações há meses. Em fevereiro, a American Psychological Association chegou a se reunir com a FTC para pressionar por regulamentações sobre chatbots de IA sendo usados como terapeutas não licenciados.

De acordo com o professor da UC Irvine, Stephen Schueller, “Quando aplicativos projetados para entretenimento alavancam inadequadamente a autoridade de um terapeuta, eles podem colocar os usuários em perigo... Eles podem impedir que uma pessoa em crise busque apoio de um terapeuta humano treinado ou - em casos extremos - encorajá-los a prejudicar a si mesmos ou a outros." Ele também mencionou que crianças e adolescentes são especialmente vulneráveis.

O Caminho a Seguir

Embora os mais vulneráveis sejam aqueles com transtornos de saúde mental existentes, mesmo pessoas sem histórico de doença mental estão em risco. O uso intenso de IA pode piorar as vulnerabilidades existentes e desencadear psicose naqueles que são propensos a pensamentos desordenados ou carecem de um sistema de apoio sólido. Psicólogos estão alertando especificamente pessoas com histórico familiar de psicose, esquizofrenia ou transtorno bipolar para terem muito cuidado com chatbots de IA.

Até mesmo o CEO da OpenAI, Sam Altman, admitiu que seu chatbot está sendo usado como terapeuta e alertou contra isso.

A OpenAI anunciou que o ChatGPT agora vai estimular os usuários a fazerem pausas. Se isso será suficiente para combater a psicose e o vício em alguns usuários, ainda não se sabe.

À medida que a tecnologia de IA continua a evoluir rapidamente, os profissionais de saúde mental estão lutando para acompanhar e descobrir como lidar com esses problemas. Se os órgãos reguladores e as empresas de IA não tomarem medidas, essa tendência aterradora pode facilmente sair do controle.

Fonte: Gizmodo