Uma pesquisa coordenada por cientistas da computação da Universidade Brown, nos Estados Unidos, em colaboração com profissionais de saúde mental, evidenciou perigos no uso de programas de inteligência artificial generativa no aconselhamento de usuários com problemas psicológicos. De acordo com o estudo, os chatbots, programas como o ChatGPT que simulam uma conversa humana por texto ou voz para responder a perguntas feitas pelo usuário, violam de várias maneiras diferentes o código de conduta profissional da Associação Americana de Psicologia.
O trabalho, apresentado em outubro em uma conferência sobre inteligência artificial e ética realizada em Madri, na Espanha, levou um ano e meio para ser concluído. Os cientistas queriam saber como perguntas de usuários sobre saúde mental feitas a programas de inteligência artificial poderiam guiar comportamentos – e quais sugestões de comportamento eram feitas. Para tanto, sete profissionais de saúde mental treinados em técnicas de terapia cognitiva-comportamental realizaram 137 sessões de aconselhamento com diferentes versões dos chatbots GPT (OpenAI), Claude (Anthropic) e LLaMa (Meta). Posteriormente, três psicólogos clínicos ajudaram a identificar possíveis violações éticas nos registros das conversas virtuais.
Os 15 tipos de violações éticas encontradas foram classificados em cinco categorias: falta de compreensão de contexto (ignorar as experiências vividas pelas pessoas e recomendar intervenções simplistas e padronizadas); colaboração terapêutica ineficaz (dar respostas impositivas e enganosas que reforçam crenças negativas do usuário); empatia enganosa (usar frases como “Eu entendo” para criar uma falsa conexão emocional com o usuário); discriminação (exibir preconceito de gênero, cultural ou religioso); e incapacidade de gerenciamento de crises (negar atendimento sobre tópicos sensíveis, não encaminhar usuários para profissionais apropriados ou responder com indiferença a situações de crise, incluindo ideação suicida).
Os autores acreditam que a inteligência artificial pode ajudar a reduzir as barreiras ao tratamento decorrentes do alto custo ou da falta de profissionais treinados, mas ressaltam a necessidade de uma implementação criteriosa das tecnologias, com regulamentação e supervisão adequadas. O alerta tem razão de ser. Segundo estudo publicado em novembro na revista Jama Network Open, 13,1% dos jovens nos Estados Unidos, algo como 5,4 milhões de indivíduos, usaram inteligência artificial generativa para obter conselhos sobre saúde mental – 65,5% interagiam com o programa pelo menos uma vez ao mês.
Republicar