Buscar
banner

Hand'se LIBRAS

Publicado em 15 de Março de 2026 às 22:45

Categoria:

Hand'se LIBRAS ✋🤟

O Hand'se LIBRAS é uma evolução do projeto Hand'se, com foco em educação, acessibilidade e inclusão. Nosso objetivo é criar uma mão robótica capaz de traduzir palavras digitadas ou faladas em movimentos que representam o alfabeto manual de LIBRAS (Língua Brasileira de Sinais).

🌟 O que o projeto vai ser (Ideia)

Traduzir texto ou voz em movimentos físicos da mão robótica, soletrando palavras em LIBRAS.
Ser usado em salas de aula e ambientes inclusivos, ajudando no aprendizado de LIBRAS.
Reconhecimento de voz para transformar fala em sinais automaticamente.
Visão computacional para interpretar gestos/objetos e reagir em tempo real

⚡ O que já foi feito (Implementação Atual)

Estrutura física da mão robótica impressa em 3D, equipada com servos motores.
Controle dos servos via Arduino Uno + PCA9685.
Comunicação Python ↔ Arduino com a biblioteca pyserial.
Dicionário de mapeamento (A–Z → ângulos dos servos) implementado.
Entrada de dados já funcional:
Texto digitado no Python.
Comandos seriais enviados manualmente pelo monitor serial do Arduino:
abrir → abre a mão.
fechar → fecha a mão.
testar → executa movimento de teste.
<canal> <ângulo> → ajusta servos manualmente (ex: 0 90).
Integração inicial com:
OpenCV → visão computacional básica.
Protótipo já consegue soletrar palavras em LIBRAS letra por letra.

Arquivos do Projeto

Materiais Necessários

  • Mão robótica impressa em 3D
  • Servomotores
  • Fios de náilon
  • Elásticos
  • Webcam ou câmera
  • Computador ou notebook
  • Cabos de conexão (jumpers)
  • Fonte de alimentação ou bateria

Ferramentas Necessárias

  • Python
  • OpenCV
  • MediaPipe
  • TensorFlow
  • GitHub
  • Visual Studio Code

Etapas

1. Preparação do Ambiente

  • Instalar o Python
    Instalar as bibliotecas necessárias
    Configurar o ambiente de desenvolvimento
    Clonar o repositório no GitHub (https://github.com/IsHirog/Hand-se.git)

2. Detecção da Mão

  • Detectar a mão usando MediaPipe
    Identificar pontos da mão (landmarks)
    Desenhar os pontos da mão na tela

3. Reconhecimento do Sinal

  • Aplicar modelo de reconhecimento
    Identificar o gesto da mão
    Mostrar o resultado na tela

4. Testes do Sistema

  • Testar diferentes gestos
    Verificar precisão do reconhecimento
    Ajustar parâmetros do sistema

Conclusão

O projeto demonstra como técnicas de visão computacional podem ser usadas para reconhecer gestos da Língua Brasileira de Sinais (Libras). Utilizando captura de imagem, detecção de mãos e classificação de gestos, o sistema consegue identificar sinais em tempo real, contribuindo para o desenvolvimento de ferramentas de acessibilidade e aprendizado.

Comentários

0
Faça login para adicionar um comentário.
  1. Nenhum comentário ainda. Seja o primeiro a comentar!

Gostou do Projeto?