TCC - Bacharelado em Sistemas da Informação (Sede)
URI permanente para esta coleçãohttps://arandu.ufrpe.br/handle/123456789/427
Navegar
4 resultados
Resultados da Pesquisa
Item Técnicas de comitês para a estimação de esforço na correção de software(2019-12-10) Guimarães, Ariana Lima; Soares, Rodrigo Gabriel Ferreira; http://lattes.cnpq.br/2526739219416964; http://lattes.cnpq.br/2605671850587343O planejamento bem definido de um projeto de software, desde os estágios iniciais, é imprescindível para o sucesso do desenvolvimento, seja ele referente à criação ou à manutenção do produto. Em anuência ao ciclo de vida de software, a manutenção é realizada de forma contínua após o produto ter sido construído e entregue, em paralelo à execução de testes por engenheiros e/ou usuários. Nessa etapa, surgem primariamente os documentos de Histórias de Usuário e Relatórios de Problemas, que descrevem, em linguagem natural, especificações de negócio, cenários de erros encontrados, correções esperadas e melhorias para o sistema. Esses documentos visam, dentre outras coisas, o mapeamento das atividades a serem realizadas durante o projeto. Por conseguinte, em consonância com os recursos disponíveis – humanos, financeiros e temporais -, torna-se possível estimar o esforço necessário no desenvolvimento das atividades e gerar informações essenciais a um planejamento eficaz e eficiente. Como esses documentos são escritos em textos naturais, surge a oportunidade de utilizar o Processamento de Linguagem Natural e o Aprendizado de Máquina (AM) para predição automatizada do esforço de software. Na prática, no dia-a-dia das fábricas de software, é comum a utilização da opinião de especialistas e da equipe do projeto para julgar o esforço requisitado por uma atividade durante sessões de Planning Poker. Nessa técnica, normalmente o esforço é medido em Pontos de História que seguem a sequência Fibonacci. Porém, esse modo de planejamento requer o escalonamento de muitos recursos para sua execução. A aplicação do AM acarreta em um sistema, após a fase de treinamento, capaz de apreender a experiência da equipe e replicá-la de forma rápida e automática para estimar o esforço das atividades. Dessa forma, este trabalho atinge a área de AM, propondo uma abordagem de Comitê de PVDM na extração de características de Relatórios de Problemas para estimar Pontos de História, os indicadores de esforço. Comparada a outras duas abordagens de BoW e PV-DM tradicional, a técnica proposta apresentou bons resultados, com f-measure de cerca de 80% em um classificador de SVM com aprendizado supervisionado. Os resultados dos experimentos inspiram um ponto de partida no aprofundamento do estudo da abordagem de Comitê de PV-DM e no seu aprimoramento.Item Uma abordagem baseada em aprendizado de máquina para dimensionamento de requisitos de software(2016-12-13) Fernandes Neto, Eça da Rocha; Soares, Rodrigo Gabriel Ferreira; http://lattes.cnpq.br/2526739219416964; http://lattes.cnpq.br/6325583065151828Este trabalho se propõe a realizar o dimensionamento automático de requisitos de software utilizando uma abordagem de aprendizado de máquina. A base de dados utilizada é real e foi obtida de uma empresa que trabalha com processo de desenvol- vimento baseado no Scrum e estimativa Planning Poker. Durante os estudos foram utilizadas técnicas de pré processamento de dados, classificação e seleção de melho- res atributos com os algorítimos termo–inverso da frequência nos documentos (tf-idf) e análise de componentes principais (PCA). O aprendizado de máquina e classificação automática se deu com o uso de Máquinas de Vetores de Suporte (SVM) baseado no histórico de dados disponível. Os testes finais foram realizados com e sem a seleção de atributos via PCA. Está demonstrado que a assertividade é maior quando é feita a seleção dos melhores atributos. A ferramenta fruto do trabalho consegue estimar o tamanho de histórias de usuário com uma generalização de até 91%. Os resultados foram considerados passíveis de serem utilizados em ambiente de produção sem pre- juízo para a equipe de desenvolvimento.Item Programinó: um jogo para auxílio ao aprendizado do assunto de tipos de dados na programação(2019-12-13) Nascimento, Gabriele Pessoa do; Falcão, Taciana Pontual da Rocha; Sampaio, Pablo Azevedo; http://lattes.cnpq.br/8865836949700771; http://lattes.cnpq.br/5706959249737319; http://lattes.cnpq.br/9978319013197863A era digital em que vivemos faz com que nós estejamos sempre imersos em tecnologias cada vez mais ubíquas. Para que este contato com a tecnologia permaneça de forma saudável, é preciso aprender a consumi-la de forma consciente, e além disso, aprender a desenvolvê-la em diferentes contextos; pois, desta forma, teremos soluções cada vez mais inclusivas. Sobre desenvolvimento de soluções, por mais que tenhamos diversos artefatos facilitadores, o processo de ensino-aprendizagem de programação ainda é um desafio, principalmente para estudantes iniciantes. Lidar com tantos estímulos, concorrentes e constantes e ainda ter a capacidade de abstrair e assimilar conceitos de programação que não é trivial e nem é trabalhado desde a infância, por isso, artefatos lúdicos, como os jogos digitais, são essenciais para facilitar os primeiros contatos com a programação. Neste contexto, este trabalho traz para a sociedade um jogo educacional digital que trabalha o assunto de tipos de dados na programação, o Programinó, para que estudantes iniciantes possam praticar e consolidar o conteúdo através de uma ferramenta lúdica. O jogo foi desenvolvido com três níveis de dificuldade, um fácil, um médio e um difícil. O difícil aplica o algoritmo minimax adaptado, enquanto o fácil usa o mesmo minimax adaptado de maneira invertida. Já o nível médio utiliza um algoritmo aleatório. Como forma de validar os níveis de dificuldades, foram realizados experimentos comparativos que comprovaram que o minimax perdeu em apenas 5,6% das vezes; ganhando em 49,7% ou empatando nas demais partidas.Item Comparação de algoritmos de reconhecimento de gestos aplicados à sinais estáticos de Libras(2019-07-12) Cruz, Lisandra Sousa da; Cordeiro, Filipe Rolim; Macário Filho, Valmir; http://lattes.cnpq.br/4346898674852080; http://lattes.cnpq.br/4807739914511076; http://lattes.cnpq.br/2111589326272463A Língua Brasileira de Sinais (Libras) foi criada a fim de suprir uma necessidade de comunicação não-verbal para os surdos, que durante muito tempo foram doutrinados à ter o português como sua primeira língua. Atualmente, a Libras é a segunda língua oficial do Brasil e primeira língua dos surdos, assim como o português é para o ouvinte. Entretanto, mesmo com tamanho reconhecimento, a segunda língua oficial do Brasil não é conhecida pela maior parte da população brasileira. O processo de inclusão visa proporcionar igualdade aos deficientes, de forma que a deficiência não seja um fator impeditivo à convivência em sociedade. Com o advento da tecnologia e avanços da Inteligência Artificial (IA), foram criados artifícios tecnológicos visando propiciar inclusão. Na IA, o reconhecimento de padrões é um dos subtemas mais abordados na atualidade, sendo bastante aplicada para a classificação de gestos de diversas línguas de sinais na literatura. Essa pesquisa tem como principal tarefa identificar as mãos que formam um determinado sinal de Libras e em seguida reconhecer a que classe pertence, classificando-o. Baseado na classificação da Língua de Sinais Americana, a Feature Fusion-based Convolutional Neural Network (FFCNN), uma rede estendida da Convolutional Neural Network (CNN), obteve a melhor acurácia em comparação a outras redes, dentre elas a Visual Geometry Group (VGG). Diante desse cenário, esse trabalho aplica a FFCNN à gestos estáticos de Libras a fim de verificar se a FFCNN obtém a melhor acurácia assim como obteve na Língua de Sinais Americana. Para alcançar esse objetivo são comparados três classificadores: VGG com uma variação da CNN com 13 e 16 camadas; FFCNN e uma rede Multi Layer Perceptron (MLP) usada no reconhecimento de gestos estáticos de Libras na literatura. Os algoritmos foram aplicados em um dataset de Libras que contém 9.600 imagens de 40 sinais. Os resultados demonstram que a rede VGG com 16 camadas obteve a maior acurácia dentre modelos descritos neste trabalho, com valor de 99,45%.
