Robôs aprendem como utilizar linguagem corporal

Robôs aprendem como utilizar linguagem corporal

Robôs aprendem como utilizar linguagem corporal

Este software de mapeamento corporal pode ajudar robôs a compreender suas emoções

Se sua amiga diz que ela se sente relaxada, mas você vê que ela está com os punhos cerrados, você fica na dúvida sobre como ela realmente se sente. Robôs, por outro lado, só considerariam suas palavras. A linguagem corporal nos diz muito, mas mesmo com os avanços na tecnologia de visão computacional e reconhecimento facial, os robôs lutam para perceber movimentos sutis do corpo e podem perder importantes pistas sociais como resultado.

Pesquisadores da Universidade Carnegie Mellon desenvolveram um sistema de mapeamento corporal que pode ajuda a resolver este problema. Nomeado de OpenPose, este sistema pode mapear o movimento corporal, incluindo mãos e face, em tempo real. Ele usa visão computacional e aprendizado de máquina para processar quadros de vídeo e pode até rastrear várias pessoas simultaneamente. Esse recurso pode facilitar as interações entre humanos e robôs e preparar o caminho para uma realidade virtual e aumentada mais interativa, bem como interfaces de usuário intuitivas.

Uma característica notável do sistema OpenPose é que ele pode rastrear não apenas a cabeça, o tronco e os membros de uma pessoa, mas também os dedos individuais. Para fazer isso, os pesquisadores usaram o Panoptic Studio da CMU, uma cúpula revestida com 500 câmeras, onde eles capturaram poses corporais em vários ângulos e usaram essas imagens para criar um conjunto de dados.

Eles então passaram essas imagens através do que é chamado de detector de ponto chave para identificar e rotular partes específicas do corpo. O software também aprende a associar as partes do corpo aos indivíduos, por isso sabe, por exemplo, que a mão de uma determinada pessoa estará sempre próxima do cotovelo. Isso possibilita rastrear várias pessoas ao mesmo tempo.

As imagens da cúpula foram capturadas em 2D. Mas os pesquisadores pegaram os pontos-chave detectados e os triangularam em 3D para ajudar seus algoritmos de rastreamento do corpo a entender como cada pose aparece de diferentes perspectivas. Com todos esses dados processados, o sistema pode determinar como o ponteiro inteiro fica quando está em uma determinada posição, mesmo que alguns dedos estejam ocultos.

Agora que o sistema tem esse conjunto de dados para ser usado, ele pode ser executado apenas com uma câmera e um notebook. Não é mais necessário que a cúpula revestida por câmera determine as poses corporais, tornando a tecnologia móvel e acessível. Os pesquisadores já divulgaram seu código ao público para incentivar a experimentação.

Eles dizem que essa tecnologia pode ser aplicada a todo tipo de interação entre humanos e máquinas. Poderia ter um grande papel nas experiências de RV, permitindo uma detecção mais precisa do movimento físico do usuário sem nenhum hardware adicional, como sensores ou luvas.

Também poderia facilitar interações mais naturais com um robô doméstico. Você poderia dizer ao seu robô para “descobrir isso”, e ele poderia entender imediatamente para o que você está apontando. Percebendo e interpretando seus gestos físicos, o robô pode até aprender a ler emoções rastreando a linguagem corporal. Então, quando você está chorando em silêncio com o rosto nas mãos, porque um robô pegou o seu trabalho, ele pode oferecer-lhe um lenço de papel.

 

Autor do Artigo:  Alyssa Pagano

Artigo Original: https://spectrum.ieee.org/automaton/robotics/robotics-hardware/transformerbots

Leave a reply

Your email address will not be published. Required fields are marked *