Uso de gestos do corpo para aplicações com Mediapipe
17/10, 08:30–12:30 (America/Manaus), OCEAN LAB 2

Conheça mais sobre uma das ferramentas de visão computacional da Google, que permite também reconhecer padrões do corpo humano. E desenvolva exemplos que abordam a interação de gestos para aplicações.


A atividade consiste em:
- Apresentação/introdução da ferramenta (30min)
- Conceitos relacionados a detecção de objetos e soluções do Mediapipe (30min)
- Exemplo prático do treinamento do modelo Mediapipe para um jogo utilizando as mãos (1h30min)
- Exemplo prático de uma interface controlada pelos gestos do usuário (1h30min)

O propósito principal da atividade é conseguir introduzir as soluções desenvolvidas dentro da ferramenta Mediapipe para o público. Isso acontece por meio de um contexto, que será apresentado, que estabelecerá os conceitos chaves e a direção para o restante do curso.

Após isso os exemplos práticos serão feitos utilizando a ferramenta sob a linguagem de programação Python em notebooks Jupyter, onde todos poderão acompanhar com clareza a execução do código. A solução abordada será em grande parte o Mediapipe hands.

Ao fim, busca-se principalmente introduzir a facilidade de interação humano-computador para diversos problemas abordados pelo desenvolvedor.

Estudante finalista de Engenharia de Computação pela UEA, possui trabalhos publicados na área de visão computacional. Hoje trabalha como bolsista no Samsung Ocean e Estagiário no QuintoAndar.

Estudante de Engenharia de Computação na Universidade do Estado do Amazonas e bolsista pesquisador no Samsung Ocean nas áreas de Internet das Coisas e Inteligência Artificial.