TCC - Bacharelado em Sistemas da Informação (Sede)
URI permanente para esta coleçãohttps://arandu.ufrpe.br/handle/123456789/427
Navegar
27 resultados
Resultados da Pesquisa
Item Aprendizagem de máquina para a identificação de clientes propensos à compra em Inbound marketing(2019-07-12) Silva, Bruno Roberto Florentino da; Monteiro, Cleviton Vinicius Fonsêca; Soares, Rodrigo Gabriel Ferreira; http://lattes.cnpq.br/2526739219416964; http://lattes.cnpq.br/9362573782715504O ponto mais importante para uma empresa deve ser sempre o cliente e conseguir novos clientes nem sempre é uma estratégia fácil. As técnicas de marketing digital estudam como atrair novos clientes para as empresas fazendo uso de plataformas digitais. Em virtude da popularização destes meios, as estratégias tiveram que se moldar às novas necessidades. Com apenas um clique é possível alcançar milhares de indivíduos, o que significa muitos leads (oportunidades de negócio) novos para a empresa. Entretanto, filtrar quais desses indivíduos estão realmente interessados no produto ou serviço ofertado pela empresa demanda um grande esforço da equipe de vendas. Essa sobrecarga é prejudicial no sentido de que a empresa pode perder receita por falta de direcionamento das verdadeiras oportunidades. Visando amenizar tal problema, o presente trabalho oferece uma proposta cujo objetivo é a identificação automática de potenciais clientes com maior propensão à compra dentre os leads obtidos por uma empresa através de estratégias de marketing digital. Para tornar possível a execução desta proposta, foram utilizados recursos de Aprendizado de máquina, com aplicação dos algoritmos de classificação supervisionada, Árvore de decisão e Naive Bayes (NB), fornecidos pela biblioteca Scikit-learn, sob a linguagem de programação Python. Além disso, fez-se necessário a aplicação do algoritmo de sobreamostragem SMOTE, devido ao desbalanceamento do conjunto de dados. Com a finalidade de otimizar a classificação, foram utilizadas técnicas de seleção de atributos e seleção de modelos com ajuste de hiperparâmetros. Para avaliação dos resultados, utilizou-se as métricas de matriz de confusão, precisão, cobertura e curva de precisão e cobertura. Devido ao desbalanceamento dos dados, a métrica de precisão não relatou bons resultados, com médias de 5,5% de acerto. Já a cobertura alcançou médias de aproximadamente 83%. Mesmo com resultados tão divergentes entre as métricas aplicadas, o presente trabalho conseguiu identificar a maioria das verdadeiras oportunidades e relatando que ao utilizar esta abordagem, seria possível obter uma redução de até 85% da aplicação de esforço por parte da equipe de vendas. Em consequência disso, uma empresa pode ter uma redução de custos ao diminuir os recursos aplicados para obter novos clientes, propiciando que a equipe de vendas possa encontrar novos clientes com maior eficiência.Item Técnicas de comitês para a estimação de esforço na correção de software(2019-12-10) Guimarães, Ariana Lima; Soares, Rodrigo Gabriel Ferreira; http://lattes.cnpq.br/2526739219416964; http://lattes.cnpq.br/2605671850587343O planejamento bem definido de um projeto de software, desde os estágios iniciais, é imprescindível para o sucesso do desenvolvimento, seja ele referente à criação ou à manutenção do produto. Em anuência ao ciclo de vida de software, a manutenção é realizada de forma contínua após o produto ter sido construído e entregue, em paralelo à execução de testes por engenheiros e/ou usuários. Nessa etapa, surgem primariamente os documentos de Histórias de Usuário e Relatórios de Problemas, que descrevem, em linguagem natural, especificações de negócio, cenários de erros encontrados, correções esperadas e melhorias para o sistema. Esses documentos visam, dentre outras coisas, o mapeamento das atividades a serem realizadas durante o projeto. Por conseguinte, em consonância com os recursos disponíveis – humanos, financeiros e temporais -, torna-se possível estimar o esforço necessário no desenvolvimento das atividades e gerar informações essenciais a um planejamento eficaz e eficiente. Como esses documentos são escritos em textos naturais, surge a oportunidade de utilizar o Processamento de Linguagem Natural e o Aprendizado de Máquina (AM) para predição automatizada do esforço de software. Na prática, no dia-a-dia das fábricas de software, é comum a utilização da opinião de especialistas e da equipe do projeto para julgar o esforço requisitado por uma atividade durante sessões de Planning Poker. Nessa técnica, normalmente o esforço é medido em Pontos de História que seguem a sequência Fibonacci. Porém, esse modo de planejamento requer o escalonamento de muitos recursos para sua execução. A aplicação do AM acarreta em um sistema, após a fase de treinamento, capaz de apreender a experiência da equipe e replicá-la de forma rápida e automática para estimar o esforço das atividades. Dessa forma, este trabalho atinge a área de AM, propondo uma abordagem de Comitê de PVDM na extração de características de Relatórios de Problemas para estimar Pontos de História, os indicadores de esforço. Comparada a outras duas abordagens de BoW e PV-DM tradicional, a técnica proposta apresentou bons resultados, com f-measure de cerca de 80% em um classificador de SVM com aprendizado supervisionado. Os resultados dos experimentos inspiram um ponto de partida no aprofundamento do estudo da abordagem de Comitê de PV-DM e no seu aprimoramento.Item Uma abordagem baseada em aprendizado de máquina para dimensionamento de requisitos de software(2016-12-13) Fernandes Neto, Eça da Rocha; Soares, Rodrigo Gabriel Ferreira; http://lattes.cnpq.br/2526739219416964; http://lattes.cnpq.br/6325583065151828Este trabalho se propõe a realizar o dimensionamento automático de requisitos de software utilizando uma abordagem de aprendizado de máquina. A base de dados utilizada é real e foi obtida de uma empresa que trabalha com processo de desenvol- vimento baseado no Scrum e estimativa Planning Poker. Durante os estudos foram utilizadas técnicas de pré processamento de dados, classificação e seleção de melho- res atributos com os algorítimos termo–inverso da frequência nos documentos (tf-idf) e análise de componentes principais (PCA). O aprendizado de máquina e classificação automática se deu com o uso de Máquinas de Vetores de Suporte (SVM) baseado no histórico de dados disponível. Os testes finais foram realizados com e sem a seleção de atributos via PCA. Está demonstrado que a assertividade é maior quando é feita a seleção dos melhores atributos. A ferramenta fruto do trabalho consegue estimar o tamanho de histórias de usuário com uma generalização de até 91%. Os resultados foram considerados passíveis de serem utilizados em ambiente de produção sem pre- juízo para a equipe de desenvolvimento.Item Comparação de técnicas de classificação para predição de esforço no desenvolvimento de software(2019-01-31) Uehara, Matheus Pitancó de Lima; Soares, Rodrigo Gabriel Ferreira; http://lattes.cnpq.br/2526739219416964; http://lattes.cnpq.br/2761038597182432A estimação de esforço de atividades é uma etapa fundamental no desenvolvimento de software, ela é de fundamental importância para que o software seja entregue com qualidade no prazo estimado. Estimativas realizadas de forma isolada das equipes de desenvolvimento tendem a se basear na estimativa de um especialista, essas estimativas são facilmente obtidas porém não refletem fielmente o esforço necessário do responsável pelo desenvolvimento da atividade, enquanto abordagens que envolvem o time de desenvolvimento tendem a ser mais assertivas no entanto demandam mais tempo e mais pessoas envolvidas neste processo de estimativa. Neste trabalho é apresentado como o aprendizado de máquina pode auxiliar de forma automatizada os times na melhoria de estimativas de esforço diminuindo o tempo necessário para sua realização. Através dos experimentos foram obtidos resultados que validam a viabilidade da técnica utilizada para extração de características e classificação na estimativa de esforço a partir da descrição textual das atividades. Os resultados dos classificadores variaram de 31% à 33% de F-measure.Item Uso da ciência de dados para estudo de falhas e fraudes dos abastecimentos de postos de gasolina(2019-12-19) Arruda, Luiz Felipe Ribeiro de; Albuquerque Júnior, Gabriel Alves de; Roullier, Ana; http://lattes.cnpq.br/1399502815770584; http://lattes.cnpq.br/1825682578554550Nos dias de hoje, se faz necessário como uma prática essencial do empreendedorismo, um estudo descritivo das vendas realizadas pelas empresas levando em consideração fatores como localização, horário, fidelização do cliente e outros. Tales tudo, é necessário para compreender os padrões envolvidos nos volumes de vendas, bem como, em alguns casos, mensurar a produtividade de vendedores e criar uma métrica de produtividade baseado nos dados obtidos. Assim como toda empresa, os postos de gasolinas também gerenciam as suas vendas fazendo projeções, melhorias e estratégia de vendas. De acordo com a lei federal nº 9.9562, os postos de gasolinas são obrigados a terem técnicos responsáveis para realizar os abastecimentos, comumente chamados de frentistas. Os frentistas são tratados nos postos como vendedores, e então existe todo um controle de vendas para eles. Também é regulamentado em lei, para postos de combustíveis, ou so de automação comercial, antes pelo regulamento da SEFAZPAF-ECF e agora pela NFC-e. A automação comercial usada nos postos de combustíveis, trabalha em conjunto com as bombas de combustíveis e os frentistas. As bombas de combustíveis, nos postos, são os geradores de dados para o posto. É através das bombas que os consumidores recebem o que compram, e é o papel da automação registrar os dados oriundos dos abastecimentos e associar o frentista para o seu respectivo abastecimento. Esses dados são enviados para sistemas comerciais que fazem atratativa do gerenciamento de venda. Este estudo tem por finalidade usar os conceitos da ciência de dados e machine learning, para identificar falhas, possíveis fraudes, automatizar a análise dos logs e extrair dados relevantes para a análise de abastecimentos através delogs. Por isso, foram criados algoritmos de identificação de falhas e fraudes, que alimentam uma tabela de dados, e posteriormente, é criada uma machine learning, alimentada por essa tabela, para que seja possível prever futuros abastecimentos com erro. Após a aplicação dos treinos e testes, a máquina teve uma precisão (precision) de 96% de acerto das previsões de falhas nos abastecimentos.Item Programinó: um jogo para auxílio ao aprendizado do assunto de tipos de dados na programação(2019-12-13) Nascimento, Gabriele Pessoa do; Falcão, Taciana Pontual da Rocha; Sampaio, Pablo Azevedo; http://lattes.cnpq.br/8865836949700771; http://lattes.cnpq.br/5706959249737319; http://lattes.cnpq.br/9978319013197863A era digital em que vivemos faz com que nós estejamos sempre imersos em tecnologias cada vez mais ubíquas. Para que este contato com a tecnologia permaneça de forma saudável, é preciso aprender a consumi-la de forma consciente, e além disso, aprender a desenvolvê-la em diferentes contextos; pois, desta forma, teremos soluções cada vez mais inclusivas. Sobre desenvolvimento de soluções, por mais que tenhamos diversos artefatos facilitadores, o processo de ensino-aprendizagem de programação ainda é um desafio, principalmente para estudantes iniciantes. Lidar com tantos estímulos, concorrentes e constantes e ainda ter a capacidade de abstrair e assimilar conceitos de programação que não é trivial e nem é trabalhado desde a infância, por isso, artefatos lúdicos, como os jogos digitais, são essenciais para facilitar os primeiros contatos com a programação. Neste contexto, este trabalho traz para a sociedade um jogo educacional digital que trabalha o assunto de tipos de dados na programação, o Programinó, para que estudantes iniciantes possam praticar e consolidar o conteúdo através de uma ferramenta lúdica. O jogo foi desenvolvido com três níveis de dificuldade, um fácil, um médio e um difícil. O difícil aplica o algoritmo minimax adaptado, enquanto o fácil usa o mesmo minimax adaptado de maneira invertida. Já o nível médio utiliza um algoritmo aleatório. Como forma de validar os níveis de dificuldades, foram realizados experimentos comparativos que comprovaram que o minimax perdeu em apenas 5,6% das vezes; ganhando em 49,7% ou empatando nas demais partidas.Item Comparação de algoritmos de reconhecimento de gestos aplicados à sinais estáticos de Libras(2019-07-12) Cruz, Lisandra Sousa da; Cordeiro, Filipe Rolim; Macário Filho, Valmir; http://lattes.cnpq.br/4346898674852080; http://lattes.cnpq.br/4807739914511076; http://lattes.cnpq.br/2111589326272463A Língua Brasileira de Sinais (Libras) foi criada a fim de suprir uma necessidade de comunicação não-verbal para os surdos, que durante muito tempo foram doutrinados à ter o português como sua primeira língua. Atualmente, a Libras é a segunda língua oficial do Brasil e primeira língua dos surdos, assim como o português é para o ouvinte. Entretanto, mesmo com tamanho reconhecimento, a segunda língua oficial do Brasil não é conhecida pela maior parte da população brasileira. O processo de inclusão visa proporcionar igualdade aos deficientes, de forma que a deficiência não seja um fator impeditivo à convivência em sociedade. Com o advento da tecnologia e avanços da Inteligência Artificial (IA), foram criados artifícios tecnológicos visando propiciar inclusão. Na IA, o reconhecimento de padrões é um dos subtemas mais abordados na atualidade, sendo bastante aplicada para a classificação de gestos de diversas línguas de sinais na literatura. Essa pesquisa tem como principal tarefa identificar as mãos que formam um determinado sinal de Libras e em seguida reconhecer a que classe pertence, classificando-o. Baseado na classificação da Língua de Sinais Americana, a Feature Fusion-based Convolutional Neural Network (FFCNN), uma rede estendida da Convolutional Neural Network (CNN), obteve a melhor acurácia em comparação a outras redes, dentre elas a Visual Geometry Group (VGG). Diante desse cenário, esse trabalho aplica a FFCNN à gestos estáticos de Libras a fim de verificar se a FFCNN obtém a melhor acurácia assim como obteve na Língua de Sinais Americana. Para alcançar esse objetivo são comparados três classificadores: VGG com uma variação da CNN com 13 e 16 camadas; FFCNN e uma rede Multi Layer Perceptron (MLP) usada no reconhecimento de gestos estáticos de Libras na literatura. Os algoritmos foram aplicados em um dataset de Libras que contém 9.600 imagens de 40 sinais. Os resultados demonstram que a rede VGG com 16 camadas obteve a maior acurácia dentre modelos descritos neste trabalho, com valor de 99,45%.Item Identificação de Outliers para detectar riscos de gestão(2018-08-17) Brizeno, Raissa Costa; Monteiro, Cleviton Vinicius Fonsêca; Lima, Rinaldo José de; http://lattes.cnpq.br/7645118086647340; http://lattes.cnpq.br/9362573782715504; http://lattes.cnpq.br/1672154276438369Os outliers são valores que não convergem com o restante dos dados de uma série. Estes valores quando surgem no contexto financeiro podem representar problemas que influenciam diretamente na saúde de um empreendimento e na tomada de decisão pelos gestores. Diante disto pretendeu-se com este trabalho identificar anomalias em lançamentos financeiros advindos contas contábeis de empresas reais. Para isto, realizou-se análises estatísticas dos lançamentos para que técnicas de detecção de outliers pudessem ser escolhidas e, posteriormente, comparadas com a detecção de outliers de avaliadores. Dentre a grande variedade de técnicas foram escolhidos os métodos de Boxplot, Boxplot ajustado, MAD e desvio padrão. Os resultados obtidos mostram que a maioria das séries não seguiam uma distribuição normal, e os resultados experimentais das comparações entre os métodos automáticos e os avaliadores demonstraram diferenças substanciais.Item Serviço computacional para interpolação espacial de dados meteorológicos(2019) Antonio, Wellington Luiz; Gonçalves, Glauco Estácio; Medeiros, Victor Wanderley Costa de; http://lattes.cnpq.br/7159595141911505; http://lattes.cnpq.br/6157118581200722; http://lattes.cnpq.br/6454060359445906A interpolação espacial é uma técnica de suma importância para diversas atuações:meteorologia, hidrologia, zoneamento agrícola, caracterização de áreas de risco à saúde, sociodemográfica, entre outras. Por meio da interpolação pode-se modelar asuperfície de uma variável espacialmente distribuída a partir de um conjunto finito de dados pontuais conhecidos, no caso de dados meteorológicos para agricultura, por exemplo, a interpolação permite observar como as variáveis meteorológicas se comportam em uma determinada propriedade rural, o que poderia servir como base para o manejo de irrigação nesta propriedade. Devido à demanda cada vez maior pelo uso dainterpolação espacial, propôs-se desenvolver um serviço de interpolação espacial, escalável baseado em tecnologias e padrões do estado da arte em sistemas distribuídospara interpolação espacial de dados meteorológicos associados à agricultura. Para o alcance de tal objetivo, buscou-se desenvolver um serviço web que implementasse três algoritmos diferentes para a interpolação da evapotranspiração de referência, sendo eles:Inverse distance weighted(IDW),Ordinary Kriging(OK) eRandom Forest(RF),os dois primeiros são algoritmos amplamente utilizados na espacialização da evapo-transpiração de referência, sendo conhecidos por produzirem baixos erros na interpolação. Já o último algoritmo utilizado é originário da aprendizagem de máquina e tem sido empregado em estudos recentes como alternativa para a interpolação espacial de variáveis ambientais, obtendo também resultados promissores na estimativa da evapo-transpiração. O serviço web de interpolação espacial proposto foi implementado e seu desempenho avaliado por meio de medição. Este serviço foi implantado em ambiente de produção por meio de um contêiner Docker, e um aplicativo móvel foi desenvolvidopara integrar e demonstrar as principais funcionalidades do serviço web. O presente serviço pode ser aplicado em diversas áreas, contudo nesse trabalho atentou-se mais para o setor agrícola, por ser o setor para o qual esse estudo encontra-se direcionado.Os principais beneficiários do serviço web incluem pesquisadores e desenvolvedoresdesoftwareque, por sua vez, a partir da aplicação do serviço, podem desenvolverestudos que beneficiarão o agricultor. Durante a realização desse trabalho, buscou-se também avaliar como o serviço desenvolvido poderia ser útil para a promoção do desempenho e da escalabilidade com relação ao cálculo da interpolação espacial e geração de modelos espaciais. Destacou-se também, a importância desse software como ferramenta de apoio para outras pesquisas ou mesmo para outros software, como por exemplo, o Aquaprev, que utiliza, além de outros parâmetros, a evapotranspiração e a interpolação espacial para estimar o tempo de irrigação de uma determinada cultura.Item Estudo comparativo de algoritmos de classificação supervisionada para classificação de polaridade em análise de sentimentos(2019) Albuquerque, Rotsen Diego Rodrigues de; Albuquerque Júnior, Gabriel Alves de; http://lattes.cnpq.br/1399502815770584; http://lattes.cnpq.br/6441716676783585Com o grande aumento de dados na internet, mostra-se uma rica fonte para a avaliação da opinião pública sobre uma entidade específica. Consequentemente, o número de opiniões disponíveis torna impossível uma tomada de decisão se for necessário ler e analisar todas as opiniões. Como o uso de Machine Learning tem sindo bastante usado, irei apresentar um estudo comparativo de dois algoritmos para classificar oscomentários usando técnicas de processamento de linguagem natural e Análise de Sentimentos. O dados obtidos foram obtidos manualmente onde através do site de competições chamado Kaggle temos cerca de 50.000 comentários sobre diversos filmes. Este estudo tem por finalidade usar também os conceitos da ciência de dados e Machine Learning, processamento de linguagem natural e analises de sentimentos para agregar mais informação sobre a industria de entretenimento e cinema. Por isso esses algoritmos foram criados para que seja possível mostrar os resultados para esse domínio nos reviews de filmes registrados no site da grande industria cinematográfica o famoso IMDB. Após a aplicação dos treinos e testes, a máquina teve uma Acuráciade 86% sobre a predição de textos comentados de filmes.
- «
- 1 (current)
- 2
- 3
- »
