Pesquisadores da Escola Politécnica da USP estão se preparando para
participar de um esforço mundial de criar uma nova geração de máquinas
capazes de auxiliar os seres humanos em suas tarefas diárias.
Na área emergente da "
Computação Afetiva", o objetivo é criar robôs ou
agentes de software
que possam se lembrar dos aniversários ou mesmo de fazer uma ligação
importante, indo além dos assistentes de voz que já existem para
celulares e computadores.
O primeiro desafio a ser enfrentado pela equipe será desenvolver um
algoritmo capaz de reconhecer a emoção de seres humanos em diferentes
meios, como vídeo, áudio e até
redes sociais.
Para se ter ideia do tamanho do problema, um estudo recente mostrou
que a frase "Eu sou um homem", pode ter 140 significados diferentes,
dependendo do contexto, momento e entonação - e este é apenas um dos
muitos exemplos.
Inclusão do português
Os professores Fábio Gagliardi Cozman e Marcos Pereira Barretto
querem ser um dos pilares do grupo brasileiro que participará no esforço
mundial para criar robôs capazes de compreender os humanos e agir de
acordo com essa compreensão.
"Não queremos criar extraterrestres ou seres que vão dominar o
mundo", brinca Barretto. "Assim como o carro nos ajuda na locomoção e
uma
máquina de café na preparação de uma bebida saborosa, a ideia é desenvolver seres que possam ser significativamente úteis aos humanos."
Mesmo estando relativamente fora do circuito principal de
tecnologia robótica, os pesquisadores acreditam que o Brasil oferece muito espaço para a execução de um projeto científico tão ambicioso.
"A maior parte do trabalho já desenvolvido na área de Computação
Afetiva serve para a língua inglesa", explica Barretto. "O trabalho da
Poli, e de outros
centros de pesquisa
brasileiros, concentra-se no português do Brasil e constrói, tijolo por
tijolo, as bases para que no futuro, quando a tecnologia alcançar
maturidade necessária, nossa língua não fique de fora."
Linguagem das emoções
Já existem dispositivos que analisam no ato qual emoção caracteriza
melhor um rosto numa foto. Contudo, essa técnica está longe de ser a
ideal.
"A
análise de fotos por
vezes engana o observador, pois o algoritmo poderia identificar raiva,
quando na verdade o fotografado estaria pronunciando uma vogal fechada",
afirma Barretto.
O desafio então é ter os mesmos resultados dos algoritmos instantâneos, mas com
imagens em movimento, que se aproximam das situações reais.
Os bonecos servem de inspiração, porque o trabalho real ainda está
na programação e na criação de algoritmos. [Imagem: Marcos Santos/USP
Imagens]
Os primeiros passos estão sendo dados pelos pesquisadores Diego Cueva e Rafael Gonçalves,
membros da equipe.
Gonçalves desenvolveu um programa que percorre trechos de 5 segundos
de vídeo e identifica as alterações na musculatura da face que
caracterizam sentimentos de alegria ou medo, por exemplo.
De acordo com resultados preliminares, o trabalho consegue
identificar quatro tipos de emoção em seres humanos - alegria, tristeza,
raiva e medo - com 90% de acerto.
Cueva analisou a conotação que as palavras têm nos diálogos. Pegando
trechos de áudio, o engenheiro comparou os dados de um algoritmo de
reconhecimento de emoção de voz com informações publicadas no Twitter -
"viagem", por exemplo, possui uma conotação mais positiva, enquanto
"morte" é mais associada a coisas negativas.
Realismo
Apesar de promissores, os trabalhos desenvolvidos na Poli representam passos iniciais de uma área que tem muito a crescer.
E os pesquisadores brasileiros não entram na tendência ufanista que é
muito comum de se ver na área: "Não tenho expectativa de ver esses
robôs funcionando no meu tempo de vida", confessa Barretto.
"Simular o comportamento humano, mesmo em situações ridiculamente simples é estupidamente difícil", reconhece ele.
Ainda assim, os pesquisadores seguem confiantes: "Ainda estamos longe
do objetivo principal, mas a cada dia descobrimos uma coisa nova,"
conclui Barretto.
Fonte:
Inovação Tecnológica
© B.I.G Todos os direitos Reservados.