Detectar as emoções dos usuários e ajudá-los a sair de situações estressantes são algumas das novas funções que os smartphones poderão executar. A novidade é objeto de estudo de pesquisadores do Instituto de Ciências Matemáticas e de Computação da Universidade de São Paulo (ICMC-USP), em São Carlos, em parceria com a Universidade Federal de São Carlos (UFSCar) e a Universidade do Arizona, nos Estados Unidos. Para detectar os sinais que demonstram a variação de emoções em determinadas circunstâncias, os pesquisadores utilizam sensores presentes em equipamentos como câmeras de computadores e smartphones – para captar expressões faciais, por exemplo –, pulseiras e relógios inteligentes como o smartwatch, que possibilitam monitorar o funcionamento do coração, da qualidade do sono, o número de batimentos cardíacos, analisar quantos passos são dados e fazer um balanço de calorias consumidas e gastas diariamente pelo usuário.
“A inovação da nossa pesquisa é que utilizamos vários sensores para a medição de bem-estar e estresse do usuário”, diz o professor Jó Ueyama, da USP, coordenador do projeto. Como a maioria desses sensores possui tecnologia wireless, é possível sincronizá-los com outros equipamentos e transferir os dados obtidos para outras plataformas, como os smartphones.
A partir das informações captadas, os pesquisadores começaram a estabelecer parâmetros com o objetivo de construir uma sequência de comandos (algoritmos) que serão passados para o computador ou smartphone. Quando o sistema estiver pronto, esses equipamentos poderão identificar as emoções do usuário, interpretá-las em tempo real e reagir de modo inteligente, sugerindo ações para alterar, por exemplo, um estado emocional indesejado ou reforçar um desejado. “Nosso intuito é detectar a emoção para que, no caso de uma situação de estresse no trabalho, por exemplo, ele possa fazer uma pausa para alterar o seu estado emocional”, diz. Nesse momento poderá ser sugerido que ouça uma música, participe de um jogo ou assista a um vídeo no YouTube. As indicações levarão em conta o perfil e interesses do usuário. Entre as possíveis aplicações para o sistema estão profissionais que atuam em atividades de risco, como em reatores nucleares, plataformas petrolíferas e estação espacial. “Ao monitorar o nível de estresse dessas pessoas, estaríamos garantindo que menos erros fossem cometidos e reduzindo a possibilidade de acidentes”, acrescenta Ueyama.
O desenvolvimento da ferramenta computacional, criada a partir de algoritmos, é uma tarefa bastante complexa. “Precisamos ensinar para a máquina qual é o significado de cada um dos sinais captados pelos sensores”, diz. “Se uma alteração nos batimentos cardíacos é mais relevante para a alteração do estado emocional do que uma mudança na expressão facial, é necessário colocarmos pesos distintos para cada um desses parâmetros com o intuito de dar mais ênfase a uma dada característica pessoal.” O tempo que se leva para realizar uma tarefa no trabalho, o número de pausas e a quantidade de vezes em que a mesma ação é repetida também podem ser indícios de um estado emocional alterado, segundo os pesquisadores.
Comportamento avaliado
Para estabelecer padrões para as respostas emocionais, foram realizados alguns experimentos, com a participação de estudantes e avaliação de psicólogos. Em um dos experimentos foram avaliados os comportamentos de alunos da USP e da UFSCar enquanto jogavam uma partida do clássico game Super Mario Bros. Cada um deles jogou por cerca de 10 minutos. Nesse período, a frequência cardíaca foi medida, as expressões faciais foram filmadas e monitoradas todas as ações feitas nos botões do controle remoto.
Quatro psicólogos assistiram às filmagens para avaliar os momentos em que houve alguma variação significativa nos dados mostrados pelos sensores. Para que pudessem fazer a classificação das emoções com isenção, eles não tinham conhecimento prévio das informações captadas pelos sensores.
As informações foram cruzadas para cotejar se as expressões faciais correspondiam ao que foi captado. O experimento com o game foi conduzido na UFSCar, sob a coordenação da professora Vânia Neris, do Departamento de Computação, que trabalha com a parte do projeto que trata da interação homem-computador. Na Universidade do Arizona a responsável é a professora Thienne Johnson, brasileira que, desde outubro, está orientando um aluno de Ueyama no seu doutorado sanduíche. “O trabalho dele é monitorar idosos que tomam remédios periodicamente com o uso de smartphones.”
“O projeto começou há um ano e meio, quando o aluno de mestrado Vinícius Pereira Gonçalves demonstrou interesse em trabalhar com o sensoriamento de emoções”, diz Ueyama, que desenvolve pesquisas na área de redes de sensores sem fio. Um dos seus projetos, de sensores sem fio para monitoramento de enchentes, financiado pela FAPESP, está sendo utilizado em São Carlos. “Por meio de um convênio com a prefeitura, estamos monitorando os pontos de enchentes na cidade”, diz Ueyama, que também trabalha com programação de smartphones. A previsão é finalizar o projeto em 2016. Até lá, mais experimentos serão feitos em instituições parceiras, como no Hospital de Marília, no interior paulista, e na Universidade do Arizona. Entre as várias aplicações possíveis do projeto no âmbito hospitalar está o desenvolvimento de aplicativos para auxiliar na recuperação de pacientes ou dependentes químicos.
Projeto
Explorando a abordagem sensor web e o sensoriamento participatório no monitoramento de rios urbanos (nº 2012/22550-0); Modalidade Auxílio à Pesquisa – Regular; Pesquisador responsável Jó Ueyama (USP); Investimento R$ 102.046,64 (FAPESP).