Bacharelado em Sistemas de Informação (Sede)
URI permanente desta comunidadehttps://arandu.ufrpe.br/handle/123456789/12
Siglas das Coleções:
APP - Artigo Publicado em Periódico
TAE - Trabalho Apresentado em Evento
TCC - Trabalho de Conclusão de Curso
Navegar
2 resultados
Resultados da Pesquisa
Item Inferindo resultados de aprendizagem em um aplicativo de LIBRAS: uma abordagem baseada em Game Learning Analytics(2025-08-05) Andrade Filho, Mércio Antônio Oliveira de; Cysneiros Filho, Gilberto Amado de Azevedo; http://lattes.cnpq.br/0534822491953359; http://lattes.cnpq.br/5713052946522902A crescente necessidade de inclusão e o avanço das tecnologias móveis criam uma oportunidade para o desenvolvimento de novas ferramentas para o ensino da Língua Brasileira de Sinais (LIBRAS). Este trabalho teve como objetivo central avaliar a eficácia de um jogo sério para dispositivos móveis, projetado para o ensino de vocabulário básico de LIBRAS para adultos ouvintes. Para isso, foi desenvolvida uma aplicação em formato de quiz e, para a sua avaliação, empregou-se a metodologia de Game Learning Analytics proposta por Serrano-Laguna e colaboradores. Este método infere resultados de aprendizagem a partir da análise não intrusiva de dados de interação do usuário, classificando-os em perfis. A pesquisa foi realizada com 34 participantes e a análise dos dados revelou que 55,9% deles se enquadraram no perfil "Aluno", que caracteriza os usuários que não possuíam o conhecimento prévio e o adquiriram através da interação com o jogo. A predominância deste perfil permite concluir que o aplicativo se mostrou uma ferramenta pedagogicamente eficaz para a maioria dos seus usuários, validando a abordagem de microlearning e gamificação para o ensino introdutório de LIBRAS.Item Comparação de algoritmos de reconhecimento de gestos aplicados à sinais estáticos de Libras(2019-07-12) Cruz, Lisandra Sousa da; Cordeiro, Filipe Rolim; Macário Filho, Valmir; http://lattes.cnpq.br/4346898674852080; http://lattes.cnpq.br/4807739914511076; http://lattes.cnpq.br/2111589326272463A Língua Brasileira de Sinais (Libras) foi criada a fim de suprir uma necessidade de comunicação não-verbal para os surdos, que durante muito tempo foram doutrinados à ter o português como sua primeira língua. Atualmente, a Libras é a segunda língua oficial do Brasil e primeira língua dos surdos, assim como o português é para o ouvinte. Entretanto, mesmo com tamanho reconhecimento, a segunda língua oficial do Brasil não é conhecida pela maior parte da população brasileira. O processo de inclusão visa proporcionar igualdade aos deficientes, de forma que a deficiência não seja um fator impeditivo à convivência em sociedade. Com o advento da tecnologia e avanços da Inteligência Artificial (IA), foram criados artifícios tecnológicos visando propiciar inclusão. Na IA, o reconhecimento de padrões é um dos subtemas mais abordados na atualidade, sendo bastante aplicada para a classificação de gestos de diversas línguas de sinais na literatura. Essa pesquisa tem como principal tarefa identificar as mãos que formam um determinado sinal de Libras e em seguida reconhecer a que classe pertence, classificando-o. Baseado na classificação da Língua de Sinais Americana, a Feature Fusion-based Convolutional Neural Network (FFCNN), uma rede estendida da Convolutional Neural Network (CNN), obteve a melhor acurácia em comparação a outras redes, dentre elas a Visual Geometry Group (VGG). Diante desse cenário, esse trabalho aplica a FFCNN à gestos estáticos de Libras a fim de verificar se a FFCNN obtém a melhor acurácia assim como obteve na Língua de Sinais Americana. Para alcançar esse objetivo são comparados três classificadores: VGG com uma variação da CNN com 13 e 16 camadas; FFCNN e uma rede Multi Layer Perceptron (MLP) usada no reconhecimento de gestos estáticos de Libras na literatura. Os algoritmos foram aplicados em um dataset de Libras que contém 9.600 imagens de 40 sinais. Os resultados demonstram que a rede VGG com 16 camadas obteve a maior acurácia dentre modelos descritos neste trabalho, com valor de 99,45%.
