17/10/2022 –, OCEAN LAB 2
Conheça mais sobre uma das ferramentas de visão computacional da Google, que permite também reconhecer padrões do corpo humano. E desenvolva exemplos que abordam a interação de gestos para aplicações.
A atividade consiste em:
- Apresentação/introdução da ferramenta (30min)
- Conceitos relacionados a detecção de objetos e soluções do Mediapipe (30min)
- Exemplo prático do treinamento do modelo Mediapipe para um jogo utilizando as mãos (1h30min)
- Exemplo prático de uma interface controlada pelos gestos do usuário (1h30min)
O propósito principal da atividade é conseguir introduzir as soluções desenvolvidas dentro da ferramenta Mediapipe para o público. Isso acontece por meio de um contexto, que será apresentado, que estabelecerá os conceitos chaves e a direção para o restante do curso.
Após isso os exemplos práticos serão feitos utilizando a ferramenta sob a linguagem de programação Python em notebooks Jupyter, onde todos poderão acompanhar com clareza a execução do código. A solução abordada será em grande parte o Mediapipe hands.
Ao fim, busca-se principalmente introduzir a facilidade de interação humano-computador para diversos problemas abordados pelo desenvolvedor.
Estudante finalista de Engenharia de Computação pela UEA, possui trabalhos publicados na área de visão computacional. Hoje trabalha como bolsista no Samsung Ocean e Estagiário no QuintoAndar.
Estudante de Engenharia de Computação na Universidade do Estado do Amazonas e bolsista pesquisador no Samsung Ocean nas áreas de Internet das Coisas e Inteligência Artificial.