Resumo: A reabilitação e melhoria das condições de vida de portadores de necessidades motoras especiais oferecem muitas possibilidades de pesquisa. O presente trabalho tem o objetivo de desenvolver uma nova interface baseada em fluxo ótico e reconhecimento de expressões faciais, com o intuíto de permitir que uma pessoa, que possua os movimentos do pescoço para cima, comande uma cadeira de rodas elétrica. Essa interface faz uso de uma webcam voltada para o rosto do usuário, para capturar uma sequência de imagens as quais são processadas com a finalidade de reconhecer padrões faciais que sirvam como comandos para que o sistema realize alguma ação em tempo real. Essa ação é enviada a um robô que representa a cadeira de rodas. O projeto é dividido em duas partes, a primeira denominada Módulo de Visão Computacional (MVC) e a outra é o Módulo Robótico (MR). O primeiro módulo aplica técnicas de visão computacional para reconhecer as expressões do rosto, e movimentos da cabeça, interpretando as intenções de se locomover do usuário, e assim, enviando comandos para o robô. O segundo módulo é um Robô Móvel com Rodas (RMR) que possui grau de manobrabilidade igual a (2,0), o qual é o mesmo grau que possui uma cadeira de rodas. Esse robô recebe os comandos gerados pelo MVC por meio de uma interface de comunicação bluetooth, e então realiza os movimentos que uma cadeira de rodas faria em uma situação real. Foram realizados testes envolvendo diferentes tipos de iluminação ambiente, e também pessoas com tons de pele variados. Os resultados experimentais mostram que é possível comandar o movimento de um RMR pela analise de imagens que capturam os movimentos da cabeça e expressões do rosto. Ambientes internos apresentaram altas taxas no reconhecimento correto, e também baixíssimas taxas de falso reconhecimento de comandos.
Abstrat: Rehabilitation and improvement of living conditions of people with special motor needs offers many research possibilities. This study has the goal of developing a new interface based on optical flow and facial expressions recognition, aiming to enable people who are able to move muscles above the neck to command an electric wheelchair. This interface uses a webcam directed to the face of the user, in order to capture a sequence of images, which are processed aiming to recognize facial patterns that serve as commands for the system to perform some action in real time. This action is sent to a robot that represents the wheelchair. The system is divided into two modules, the first named Computer Vision Module MVC and the other is the Robotic Module MR. The first module applies computer vision techniques to recognize facial expressions and head movements, interpreting the intentions of moving from the user, and thus, sending commands to the robot. The second module is a wheeled mobile robot RMR which has its degree of maneuverability equal to (2,0), which are the same degrees of an wheelchair. This robot receives the commands generated by the MVC by means of a bluetooth communication interface, and then performs the movements that a wheelchair would do in a real situation. Tests were conducted involving various types of environment lighting, and also people with different skin tones. The experimental results show that it is possible to control the movements of an RMR by means of the analysis of images that captures the head movements and facial expressions. Indoor environments showed high rates in the correct recognition, and also very low false command recognition rates. |