
Chatbots de Terapia com IA: Estudo de Stanford Expõe Riscos à Saúde Mental
Tenho lido sobre os mais recentes desenvolvimentos em IA, e um estudo recente de Stanford chamou minha atenção. Aparentemente, esses chatbots de terapia com IA que estão surgindo por toda parte podem não ser tão úteis quanto esperávamos. Na verdade, eles podem até causar danos àqueles que buscam apoio para a saúde mental. Isso definitivamente não é o que você quer de uma ferramenta projetada para ajudar as pessoas.
Pesquisadores colocaram esses chatbots à prova, e o que encontraram foi preocupante. A IA às vezes mostrava sinais de estigmatizar usuários com base em suas condições de saúde mental, o que é o oposto do que um bom terapeuta deveria fazer. Imagine se abrir para um chatbot sobre suas lutas, apenas para se sentir julgado ou incompreendido. É um pensamento terrível.
Por exemplo, o estudo mostrou que os chatbots exibiram um nível mais alto de estigma em relação a condições como esquizofrenia e dependência de álcool em comparação com a depressão. Isso faz você se perguntar, como isso é possível? Não é como se a IA tivesse opiniões reais, certo?
E aqui está o problema: mesmo os modelos mais novos e "aprimorados" não se saíram muito melhor. Parece que jogar mais dados no problema não é necessariamente a solução. Se alguma coisa, pode estar reforçando preconceitos existentes ou abordagens falhas.
Quando os Chatbots Dão Errado
O estudo não parou por aí. Os pesquisadores também testaram como os chatbots responderiam a transcrições de terapia reais, incluindo situações envolvendo pensamentos suicidas ou delírios. Os resultados foram alarmantes. Em alguns casos, os chatbots não desafiaram ou abordaram essas questões sérias adequadamente. Em vez de oferecer apoio ou orientação, eles deram respostas irrelevantes.
Ele até contou um exemplo em que, quando perguntado sobre pontes altas em Nova York depois de expressar perda de emprego, o chatbot realmente listou estruturas altas, errando completamente o alvo e não fornecendo suporte semelhante ao humano. Ele destaca a importância de ter um toque humano na terapia, algo com que a IA atualmente luta.
Agora, não estou dizendo que a IA não tem lugar nos cuidados de saúde mental. Os próprios pesquisadores sugerem que a IA poderia potencialmente ajudar com tarefas como faturamento, treinamento ou até mesmo ajudar os pacientes com o diário. No entanto, quando se trata de substituir terapeutas humanos, claramente ainda não chegamos lá. É crucial proceder com cautela e considerar cuidadosamente o papel que a IA deve desempenhar.
Em conclusão, embora a promessa de terapia acessível e acessível através da IA seja atraente, precisamos reconhecer os riscos potenciais. Esses chatbots não estão prontos para substituir terapeutas humanos ainda, pois existem muitas preocupações éticas que precisam ser abordadas antes de serem implantadas em massa. Precisamos garantir que essas ferramentas sejam verdadeiramente úteis e de apoio, em vez de prejudiciais.
Fonte: TechCrunch