Bacharelado em Sistemas de Informação (Sede)

URI permanente desta comunidadehttps://arandu.ufrpe.br/handle/123456789/12


Siglas das Coleções:

APP - Artigo Publicado em Periódico
TAE - Trabalho Apresentado em Evento
TCC - Trabalho de Conclusão de Curso

Navegar

Resultados da Pesquisa

Agora exibindo 1 - 10 de 15
  • Imagem de Miniatura
    Item
    Navegando pelas emoções: aplicando modelos de linguagem de grande escala para auxiliar crianças no processamento de eventos pessoais
    (2025-08-08) Silva Filho, Aurineque da Costa; Lima, Rinaldo José de; http://lattes.cnpq.br/7645118086647340
    Nos dias atuais, diversos modelos de LLM têm sido aplicados em uma ampla gama de áreas, evidenciando o potencial dessas tecnologias para resolver desafios complexos. Nesse contexto, o Fafabot surge como uma iniciativa que visa apoiar o desenvolvimento emocional infantil, uma área essencial para a formação de habilidades sociais e o bem-estar das crianças. Existem avanços promissores identificados em estudos laboratoriais recentes, dos quais demonstram que é possível criar um ambiente onde a criança possa se sentir segura para não só compartilhar experiências sobre eventos pessoais, como também incentivar elas a entender as possíveis emoções associadas. Contudo ainda há uma lacuna significativa na aplicação dessas soluções em contextos cotidianos e também o campo cultural e econômico aplicado a outras realidades como o Brasil. Alguns Estudos reforçam que o desenvolvimento emocional é algo que deve ser trabalhado desde a infância, pois nesta fase as crianças possuem dificuldade de compreender e expressar o que estão sentindo. O Fafabot propõe utilizar Modelos de Linguagem de Grande Escala (LLMs) para criar um ambiente seguro, culturalmente sensível e acolhedor, onde as crianças possam compreender e expressar suas emoções de forma natural, além de auxiliá-las com estratégias de enfrentamento para emoções negativas que possam indicar quadros de ansiedade e tristeza, sugerindo a busca de um profissional da mente quando necessário e sempre incentivando a criança a compartilhar estes sentimentos com seus pais. Verificando as implicações deste tipo de tecnologia em crianças entre 8 e 12 anos na cidade de Olinda-PE.
  • Imagem de Miniatura
    Item
    Reestruturação ética na mineração de dados educacionais superiores: conformidade com a Lei Geral de Proteção de Dados
    (2025-08-12) Vasconcelos, Taciana dos Santos; Gouveia, Roberta Macêdo Marques; Albuquerque Júnior, Gabriel Alves de; http://lattes.cnpq.br/2024317361355224; http://lattes.cnpq.br/1399502815770584; http://lattes.cnpq.br/8691839294756407
    Este estudo aborda a reestruturação dos dados públicos educacionais do Ensino Superior promovida pelo INEP, alinhada à LGPD. Inspirado pelo estudo conduzido por Rodrigues (2021), que analisou concluintes de graduação, visando à construção de modelos de classificação utilizando fatores socioeconômicos e tempo estimado para conclusão da graduação em IES públicas. Este trabalho examina como as mudanças na configuração dos dados do ENADE e do Censo da Educação Superior afetam a realização de pesquisas científicas. Em resposta às mudanças nos microdados efetuadas pelo INEP, que impossibilitam a reprodução de trabalhos com finalidade de análise individual de discentes, este estudo direcionou seu enfoque para as informações dos cursos e tempo de graduação dos discentes nesses cursos, considerando medidas de tendência central. Consideraram-se os anos de 2016 a 2018 para dados do ENADE e 2018 para Censo da Educação Superior. Utilizou-se o processo de Knowledge Discovery in Database (KDD) ao longo do trabalho, desde a seleção até a interpretação de dados. Usando 5.170 registros de cursos, técnicas do Aprendizado de Máquina Supervisionado foram empregadas para construção de modelos de regressão e classificação. Essa abordagem visa superar os desafios éticos e metodológicos da reestruturação dos dados, garantindo a utilidade dos dados para fins de pesquisa científica. Resultados mostram que as mudanças permitiram o uso eficaz de modelos de Aprendizado de Máquina. O estudo destaca a importância da ética nos dados educacionais e na inteligência artificial, garantindo a proteção da privacidade e a responsabilidade na utilização dos dados para tomada de decisões futuras.
  • Imagem de Miniatura
    Item
    Utilização ao de IA generativa para a geração e validação ao de questões com base na teoria da resposta ao item
    (2025-08-08) Souza, Jéssica Alves de; Albuquerque Júnior, Gabriel Alves de; http://lattes.cnpq.br/1399502815770584; http://lattes.cnpq.br/3448543860376528
    Este trabalho teve como objetivo investigar a utilização da IA generativa na geração de exercícios educacionais e na simulação de respostas de estudantes, com o intuito de aplicar a Teoria de Resposta ao Item (TRI) aos resultados da simulação e verificar se os exercícios gerados correspondem ao nível de dificuldade solicitado, calibrando o simulador. Para isso, foi desenvolvida uma arquitetura de serviços web em FastAPI que orquestra chamadas a Grandes Modelos de Linguagem (LLMs) por meio de templates de prompts contextualizados, permitindo a criação de questões objetivas e dissertativas no estilo ENEM, além da simulação de respostas de mil estudantes fictícios cujas habilidades foram amostradas a partir de uma distribuição gaussiana. A reestimação dos parâmetros a, b e c do modelo logístico de três parâmetros (ML-3P) via bootstrap foi avaliada quantitativamente por meio de métricas de erro. Qualitativamente, as questões produzidas seguiram o padrão ENEM e atenderam às regras predefinidas. No teste quantitativo de seis questões com o prompt A para determinar sua dificuldade, obteve-se 50 % de acerto. Nas classificações incorretas, as estimativas permaneceram coerentes com a faixa correta, com valores próximos aos seus limites. Por fim, a simulação de respostas forneceu subsídios quantitativos valiosos para aprimorar os prompts e a aplicação dos modelos, aproximando mais os resultados dos dados reais.
  • Imagem de Miniatura
    Item
    Análise de desempenho do Gemini na estimativa de peso de alimentos por imagem
    (2025-08-06) Silva, Carlos Gabriel Farias da; Garrozi, Cícero; http://lattes.cnpq.br/0488054917286587
    Com o avanço das inteligências artificiais multimodais, cresce o interesse em sua aplicação na área da saúde para facilitar a análise nutricional e auxiliar no combate à obesidade. No entanto, a confiabilidade desses modelos para identificar alimentos e estimar porções a partir de imagens ainda é incerta, sendo fundamental mensurar seu desempenho de forma objetiva. Este trabalho avalia a capacidade do modelo Gemini de classificar ingredientes e estimar seus respectivos pesos (em gramas) a partir de fotografias de refeições. Para isso, foi desenvolvido um sistema automatizado que envia requisições à API do Gemini, utilizando um prompt textual padronizado, elaborado com técnicas de engenharia de prompt, e uma lista de ingredientes de referência. As respostas do modelo, obtidas em formato JSON, foram comparadas com dados reais para análise de desempenho. Os resultados obtidos nos experimentos indicaram um baixo desempenho geral. Na classificação de ingredientes, o modelo apresentou baixa precisão e sensibilidade (recall), com dificuldade em detectar itens como temperos e condimentos (por exemplo, azeite e sal) que estavam misturados a outros alimentos, embora tenha obtido altas taxas de aceno para ingredientes visualmente distintos, como morangos e ovos mexidos. Na estimativa de peso, o desempenho também foi insatisfatório, com altos valores de erro (MAE e RMSE) e coeficiente de determinação (R2) negativo, evidenciando tendência à superestimação e desempenho inferior a uma simples predição pela média.
  • Imagem de Miniatura
    Item
    Desenvolvimento de aplicação em Outsystems para área de saúde utilizando práticas do HIPAA compliance
    (2025-03-26) Carvalho, Udney Epaminondas; Bocanegra, Silvana; Marques, Paulo César Florentino; http://lattes.cnpq.br/1264573844331881; http://lattes.cnpq.br/4596111202208863; http://lattes.cnpq.br/3835096844800301
    A iminente necessidade das empresas de adotarem o processo de transformação digital induziu muitas a buscarem recursos que possam fornecer entregas ágeis e robustas para a digitalização dos seus processos. Esta transformação digital também atinge o setor de saúde, que atrelado aos desafios inerentes a própria natureza destas mudanças, também precisa lidar com cautela ao tratar das informações sensíveis dos pacientes e o compartilhamento destes dados. Para atender a demandas como estas, onde é necessário agilidade e segurança para a elaboração de projetos, tem se popularizado o uso de plataformas low-code, que por usar os benefícios da computação em nuvem e a possibilidade de criar código utilizando recursos visuais, vai facilitar o aprendizado técnico e permitir a criação de aplicações robustas em um tempo reduzido. O presente trabalho tem como objetivo apresentar o uso de uma plataforma low-code (OutSystems) no desenvolvimento de uma aplicação web para gerenciamento e realização de consultas médicas. Como estudo de caso, será utilizado um produto da start up ZophIA.tech, que faz uso de inteligência artificial aprimorada por análise geométrica para auxiliar no diagnóstico de esquizofrenia e outras doenças mentais através da fala e gestos de pacientes. Serão implementadas as regras de segurança de dados do padrão americano HIPAA para tratar com informações sensíveis dos pacientes.
  • Imagem de Miniatura
    Item
    Detecção de fake news: uma abordagem baseada em Large Language Models e Prompt Engineering
    (2025-03-20) Fonseca, Pablo Weslley Silva da; Lima, Rinaldo José de; http://lattes.cnpq.br/7645118086647340; http://lattes.cnpq.br/6258598537884813
    Este trabalho aborda o uso de Large Language Models (LLMs) para a detecção de fake news ou notícias falsas no idioma inglês e português. As notícias falsas têm gerado impactos negativos, como desinformação e conflitos sociais, sendo amplamente disseminadas pelas redes sociais. Embora métodos tradicionais de verificação sejam eficazes, como checagem manual e agências de verificação de fatos, a aplicação de algoritmos de machine learning e deep learning trouxe avanços importantes. No entanto, esses modelos apresentam limitações, como perda de contexto semântico e custos de treinamento. A introdução da arquitetura Transformers possibilitou avanços significativos com LLMs, como BERT, GPT e T5, devido à sua capacidade de compreender padrões linguísticos complexos. Este trabalho propõe uma abordagem de detecção de notícias falsas a partir recuperações de informações pela Web e o modelo Qwen2.5-7B-Instruct, comparando o desempenho com propostas que combina recuperação de informações com modelos tradicionais e LLMs. Os resultados destacam vantagens e desvantagens, contribuindo para futuras melhorias em sistemas automatizados de detecção de notícias falsas.
  • Imagem de Miniatura
    Item
    Geração aumentada para recuperação de dados urbanos integrados: consolidando dados do IBGE, Censo, CNEFE e OSM para a otimização do planejamento urbano
    (2025-03-21) Conceição, Keyson Raphael Acioli da; Lima, Rinaldo José de; http://lattes.cnpq.br/7645118086647340; http://lattes.cnpq.br/3198610477751043
    Nos últimos anos, os campos da Inteligência Artificial (IA) e do aprendizado de máquina (AM) revolucionaram o domínio do planejamento urbano, pois permitem que volumes substanciais de dados sejam analisados de forma eficaz, incentivando melhor alocação de recursos e entregas de serviços públicos. Para atingir este objetivo, o agente inteligente proposto neste trabalho reúne dados de várias fontes, incluindo Censo Demográfico, Cadastro Nacional de Endereços para Fins Estatísticos - CNEFE, e OpenStreetMap (OSM) para oferecer respostas baseadas em contexto relacionadas à distribuição da população e acesso a diferentes serviços urbanos. A abordagem proposta inclui um pipeline de processamento que implementa normalização, indexação vetorial das informações e representação semântica para tornar as consultas mais eficazes. Para avaliar o sistema proposto, foi conduzido um experimento com especialistas em planejamento urbano e analisamos a relevância, clareza e utilidade das respostas geradas pelo sistema. Tais resultados mostram que o agente é capaz de detectar áreas com pouca cobertura de serviços necessários, indicando uma alocação adequada. No entanto, outros desafios, tais como a necessidade de melhor clarificação das respostas e ampliação da cobertura espacial, foram reconhecidos como oportunidades para trabalho futuro.
  • Imagem de Miniatura
    Item
    Implementação de um agente inteligente para atendimento automatizado de dúvidas acadêmicas na UFRPE
    (2025-03-31) Silva, Evelyn Mylena Bezerra e; Albuquerque Júnior, Gabriel Alves de; http://lattes.cnpq.br/1399502815770584; http://lattes.cnpq.br/5200293461568988
    Este trabalho teve como objetivo principal desenvolver e validar um agente inteligente baseado em técnicas de Processamento de Linguagem Natural (PLN) e Recuperação de Informação, voltado ao suporte acadêmico no curso de Bacharelado em Sistemas de Informação (BSI) da Universidade Federal Rural de Pernambuco (UFRPE). O sistema foi projetado para oferecer respostas rápidas, relevantes e contextualizadas a perguntas frequentes relacionadas à vida acadêmica dos estudantes, como carga horária, disciplinas, matrículas e procedimentos administrativos. A implementação envolveu a coleta e estruturação de documentos institucionais, a construção de um modelo vetorial para recuperação semântica de respostas e a integração com um módulo de memória conversacional. Para a validação, as respostas do agente inteligente foram comparadas com um FAQ do curso de BSI, utilizando como métrica a similaridade do cosseno, aplicada ao conteúdo semântico das respostas. Os resultados indicaram uma média de similaridade de aproximadamente 0,6396, com mediana de 0,6548 e baixa dispersão. A maioria das respostas apresentou alto ou médio grau de alinhamento semântico com o conteúdo oficial, sendo classificadas como semanticamente adequadas. Casos de baixa similaridade representaram uma minoria e estiveram, em geral, relacionados a perguntas de cunho prático-operacional não abordadas na base de dados do sistema. Em contrapartida, observou-se que, em alguns contextos, o agente inteligente forneceu respostas mais completas e fundamentadas do que aquelas presentes no próprio FAQ. Conclui-se que o sistema desenvolvido apresenta desempenho satisfatório e demonstra potencial para expansão como ferramenta institucional de apoio ao estudante, promovendo maior autonomia, agilidade e acessibilidade no acesso a informação acadêmica.
  • Imagem de Miniatura
    Item
    Desenvolvimento de um sistema auxiliar para controle de acesso de veículos para a Universidade Federal Rural de Pernambuco
    (2024-03-08) Izidio, Stefany Vitória da Conceição; Garrozi, Cícero; http://lattes.cnpq.br/0488054917286587; http://lattes.cnpq.br/0642557485551355
    Atualmente, o controle de acesso de veículos à Universidade Federal Rural de Pernambuco é feito manualmente em papéis por funcionários da universidade. Também há a liberação direta de veículos que se cadastram na universidade e recebem um adesivo específico para usar no para-brisa. Este tipo de controle não é muito seguro, por poder ser facilmente clonado e usado por veículos sem autorização real. Além disso, há um curto desvio de atenção do funcionário quando ele realiza o trabalho manual de anotar a placa no papel. Este trabalho tem o objetivo de tornar o processo de controle de veículos mais confiável e seguro através do desenvolvimento de um protótipo de um sistema que auxilia no controle de acesso. Este trabalho propõe uma solução mediante a captura de uma imagem da placa, identificação da placa do veículo e da verificação em uma base de dados se a placa é previamente cadastrada ou não. E, o sistema produz um sinal luminoso para indicar ao funcionário se a placa é ou não cadastrada. Para isso, foi montado um produto de hardware e desenvolvido um software embutido. O hardware é composto por um conjunto de dispositivos eletrônicos como LEDs, câmera, dispositivo de processamento, etc. O software é um conjunto de bibliotecas que foi, em sua maior parte, desenvolvido em Python. Para o software embutido, foi usado um conjunto de imagens com fotos de placas de carros brasileiros para treinar um modelo de detecção de objetos para detectar as placas. Por fim, foi utilizado um serviço de reconhecimento ótico de caracteres para extrair o conteúdo da placa, possibilitando assim registrar e emitir o sinal luminoso ao usuário.
  • Imagem de Miniatura
    Item
    Técnicas de comitês para a estimação de esforço na correção de software
    (2019-12-10) Guimarães, Ariana Lima; Soares, Rodrigo Gabriel Ferreira; http://lattes.cnpq.br/2526739219416964; http://lattes.cnpq.br/2605671850587343
    O planejamento bem definido de um projeto de software, desde os estágios iniciais, é imprescindível para o sucesso do desenvolvimento, seja ele referente à criação ou à manutenção do produto. Em anuência ao ciclo de vida de software, a manutenção é realizada de forma contínua após o produto ter sido construído e entregue, em paralelo à execução de testes por engenheiros e/ou usuários. Nessa etapa, surgem primariamente os documentos de Histórias de Usuário e Relatórios de Problemas, que descrevem, em linguagem natural, especificações de negócio, cenários de erros encontrados, correções esperadas e melhorias para o sistema. Esses documentos visam, dentre outras coisas, o mapeamento das atividades a serem realizadas durante o projeto. Por conseguinte, em consonância com os recursos disponíveis – humanos, financeiros e temporais -, torna-se possível estimar o esforço necessário no desenvolvimento das atividades e gerar informações essenciais a um planejamento eficaz e eficiente. Como esses documentos são escritos em textos naturais, surge a oportunidade de utilizar o Processamento de Linguagem Natural e o Aprendizado de Máquina (AM) para predição automatizada do esforço de software. Na prática, no dia-a-dia das fábricas de software, é comum a utilização da opinião de especialistas e da equipe do projeto para julgar o esforço requisitado por uma atividade durante sessões de Planning Poker. Nessa técnica, normalmente o esforço é medido em Pontos de História que seguem a sequência Fibonacci. Porém, esse modo de planejamento requer o escalonamento de muitos recursos para sua execução. A aplicação do AM acarreta em um sistema, após a fase de treinamento, capaz de apreender a experiência da equipe e replicá-la de forma rápida e automática para estimar o esforço das atividades. Dessa forma, este trabalho atinge a área de AM, propondo uma abordagem de Comitê de PVDM na extração de características de Relatórios de Problemas para estimar Pontos de História, os indicadores de esforço. Comparada a outras duas abordagens de BoW e PV-DM tradicional, a técnica proposta apresentou bons resultados, com f-measure de cerca de 80% em um classificador de SVM com aprendizado supervisionado. Os resultados dos experimentos inspiram um ponto de partida no aprofundamento do estudo da abordagem de Comitê de PV-DM e no seu aprimoramento.