Hand'se LIBRAS
Publicado em 15 de Março de 2026 às 22:45
Hand'se LIBRAS ✋🤟
O Hand'se LIBRAS é uma evolução do projeto Hand'se, com foco em educação, acessibilidade e inclusão. Nosso objetivo é criar uma mão robótica capaz de traduzir palavras digitadas ou faladas em movimentos que representam o alfabeto manual de LIBRAS (Língua Brasileira de Sinais).
🌟 O que o projeto vai ser (Ideia)
Traduzir texto ou voz em movimentos físicos da mão robótica, soletrando palavras em LIBRAS.
Ser usado em salas de aula e ambientes inclusivos, ajudando no aprendizado de LIBRAS.
Reconhecimento de voz para transformar fala em sinais automaticamente.
Visão computacional para interpretar gestos/objetos e reagir em tempo real
⚡ O que já foi feito (Implementação Atual)
Estrutura física da mão robótica impressa em 3D, equipada com servos motores.
Controle dos servos via Arduino Uno + PCA9685.
Comunicação Python ↔ Arduino com a biblioteca pyserial.
Dicionário de mapeamento (A–Z → ângulos dos servos) implementado.
Entrada de dados já funcional:
Texto digitado no Python.
Comandos seriais enviados manualmente pelo monitor serial do Arduino:
abrir → abre a mão.
fechar → fecha a mão.
testar → executa movimento de teste.
<canal> <ângulo> → ajusta servos manualmente (ex: 0 90).
Integração inicial com:
OpenCV → visão computacional básica.
Protótipo já consegue soletrar palavras em LIBRAS letra por letra.
Arquivos do Projeto
1.62 KB
4.10 KB
1.96 KB
Materiais Necessários
- Mão robótica impressa em 3D
- Servomotores
- Fios de náilon
- Elásticos
- Webcam ou câmera
- Computador ou notebook
- Cabos de conexão (jumpers)
- Fonte de alimentação ou bateria
Ferramentas Necessárias
- Python
- OpenCV
- MediaPipe
- TensorFlow
- GitHub
- Visual Studio Code
Etapas
1. Preparação do Ambiente
-
Instalar o Python
Instalar as bibliotecas necessárias
Configurar o ambiente de desenvolvimento
Clonar o repositório no GitHub (https://github.com/IsHirog/Hand-se.git)
2. Detecção da Mão
-
Detectar a mão usando MediaPipe
Identificar pontos da mão (landmarks)
Desenhar os pontos da mão na tela
3. Reconhecimento do Sinal
-
Aplicar modelo de reconhecimento
Identificar o gesto da mão
Mostrar o resultado na tela
4. Testes do Sistema
-
Testar diferentes gestos
Verificar precisão do reconhecimento
Ajustar parâmetros do sistema
Conclusão
O projeto demonstra como técnicas de visão computacional podem ser usadas para reconhecer gestos da Língua Brasileira de Sinais (Libras). Utilizando captura de imagem, detecção de mãos e classificação de gestos, o sistema consegue identificar sinais em tempo real, contribuindo para o desenvolvimento de ferramentas de acessibilidade e aprendizado.

Comentários
0