FGV EMAp - Trabalhos de Conclusão de Curso - Matemática Aplicada

O Trabalho de Conclusão de Curso da Escola de Matemática Aplicada FGV/EMAp, aqui disponibilizado, é requisito indispensável para a obtenção do grau de bacharel em Matemática Aplicada. Os objetivos do TCC são os de propiciar aos acadêmicos do curso de graduação em Matemática Aplicada a oportunidade de compreender e apreender os elementos envolvidos no processo de pesquisa, estimulando a produção de conhecimento na área em questão. O Trabalho de Curso caracteriza-se como trabalho de natureza científica na área da Matemática de acordo com as linhas e projetos de pesquisa desenvolvidos pela Escola, realizado individualmente sob a orientação de um professor da FGV/EMAp. A FGV/EMAp disponibiliza, nesta seção, os TCCs indicados para a publicação online pelas bancas examinadoras, resultado do mérito acadêmico destes trabalhos.

Navegar

Submissões Recentes

Agora exibindo 1 - 20 de 66
  • Item
    Métodos em programação linear inteira para modelagem de estatísticas de risco VAR e CVAR
    (2022-12) Souza, José Arthur de
    Este trabalho tem como objetivo apresentar modelagens em Programação Linear Inteira para as Estatísticas de Risco Value-at-Risk e Conditional-Value-at-Risk que sejam independentes da função objetivo. Deste modo, fornecemos uma nova abordagem para problemas de otimização de portfolios em Programação Estocástica, isto é, com uma amostragem de cenários nos quais as decisões tomadas têm efeitos diferentes sobre o retorno, aonde é possível manter um objetivo claro e isolado de interferências de restrições envolvendo Estatísticas de Risco.
  • Item
    Um estudo sobre autoencoders variacionais
    (2022-12-16) Guimarães, Eduardo Vianna de Lima Fernandes
    Autoencoders Variacionais são modelos probabilísticos direcionais que podem ser treinados sem supervisão, sem rotulação de dados e que propõem uma série de técnicas de amenização do custo computacional de processamento e de memória para sua otimização, o que se torna essencial para o objetivo de treiná-los a aprender estruturas latentes de bases de dados de alta dimensionalidade. Seu framework compartimentado entre encoder e decoder oferece ao mesmotempo uma forma de mapear dados de alta dimensionalidade em espaços de baixa dimensão para análise de suas propriedades e um meio para se gerar pontos não observados do espaço de input. A facilidade com que eles ligam as teorias de modelos latentes e modelos generativos permite que diversos modelos adjacentes fossem definidos - como os autoencoders regularizadores - e consequentemente alavanca avanços concretos na área de modelos de redes neurais profundas com variáveis latentes.
  • Item
    Aplicações de Deep Reinforcement Learning para modelos de inteligência artificial em jogos de plataforma
    (2022-12-6) Luz, Bruno Visnadi da
    Algoritmos de Deep Reinforcement Learning são eficazes para resolver problemas que envolvem a interação entre um agente e um ambiente e, portanto, escolhas populares para aplicações em videogames e simulações. Na última década, muito progresso foi feito nesta família de algoritmos e diversas melhorias foram desenvolvidas sobre problemas conhecidos nos algoritmos mais antigos. As aplicações mais comuns de tais algoritmos envolvem maximizar alguma pontuação ou métrica equivalente naquele ambiente, mas com devidos ajustes é possível aplicá-los em problemas que visam minimizar o tempo de percurso do agente entre 2 pontos do ambiente. Modelos de Deep Q Learning, Proximal Policy Optimization e Double Q Learning foram desenvolvidos utilizando versão simplificada do ambiente para parametrizar hiperparâmetros e definir a estrutura das redes. Estes modelos foram testados em 3 mapas de diferentes graus de complexidade, e seus desempenhos foram mensurados em velocidade de aprendizado, performance e generalidade. Em todas as métricas utilizadas para as análises comparativas, foram observadas vantagens nos algoritmos de Proximal Policy Optimization e Double Q Learning em relação ao algoritmo Deep Q Learning. Com Isso, pode-se concluir que os problemas conhecidos nos modelos DQN exercem influência no problema estudado, e os aprimoramentos realizados em outros algoritmos têm sucesso em endereçá-los.
  • Item
    Síntese de texturas baseado em amostra
    (2022-12-7) Cardoso, Danilo Lemos
    Temas relacionados à análise e síntese de imagens vêm tendo um crescente aumento de interesse nos últimos anos, tanto por parte de pesquisadores, quanto pelo público geral. Isso se deve ao aumento do poder computacional e da geração de dados, que possibilitam o estudo e desenvolvimento de modelos mais ricos, permitindo assim aplicações como inpainting e transferência de estilo. Neste trabalho será tratada a geração de texturas de tamanho arbitrário usando uma amostra limitada, tentando assim modelar seu processo de geração para produzir um resultado perceptualmente semelhante ao original. Será feita uma revisão da literatura sobre o tema, mostrando os principais resultados e abordagens, como a área foi se desenvolvendo até chegar no conhecimento de hoje, e como essa área influenciou em outros temas relacionados a imagem. No final será mostrada uma implementação do método computacional, aplicando-o em diferentes tipos texturas para observar como características da imagem original podem mudar a qualidade do resultado. Em seguida serão exploradas variações do método que permitem um melhor controle da forma do resultado final.
  • Item
    Análise de modelos de consenso do Blockchain
    (2022-07) Lai, Emerson Santiago
    No presente estudo a fim de entender melhor os modelos de consenso utilizados no blockchain, observamos como transações e consenso são definidos de uma maneira mais fundamental. Devido a complexidade da chegada de consenso em sistemas assíncronos, o teorema FLP de impossibilidade nos mostra que é preciso fazer sacrifícios ao elaborar modelos de consenso distribuído em tais condições reduzindo as restrições sobre safety, liveness, tolerância a falhas ou adotando premissas de sincronicidade. Observamos a estrutura do blockchain, analisando como as transações são ordenadas e organizadas em blocos e como os blocos são encadeados uns aos outros formando a blockchain, e analisamos as características e propriedades. Uma característica principal da diferenciação da blockchain é dada por seu modelo de consenso. Na PoW observamos sua resiliência a ataques e seus modelos de incentivos e mineração, mas apresenta dificuldades práticas como seu uso de energia, concentração de mineração e escalabilidade. Para resolver alguns desses problemas, PoS implementou um sistema onde ao invés de todos os nós minerarem, um nó é eleito para realização da validação a partir de seu stake. Apesar desse modelo resolver o problema de gasto de energia e aumentar a quantidade de transações que podem ser feitas, algumas vulnerabilidades surgem como ataques como o nothing-at-stake e Grinding attacks e outros problemas surgem como o incentivo ao acúmulo de riquezas. Por fim, analisamos ainda mecanismos de consenso similares a tanto PoW quanto PoS que visam resolver alguns desses problemas, mas em geral apresentam outro tipo de dificuldade e não são largamente adotados.
  • Item
    Estudo e visualização das relações entre estadistas mapeadas pelo DHBB
    (2022-12) Junqueira, Igor Cortes
    Conclui-se que o realizado nesse trabalho atingiu de maneira satisfatória uma estrutura intermediária de abstração das informações de relacionamento contidas no Dicionário Histórico Biográfico Brasileiro. Ainda, as análises propostas para uma segunda etapa do projeto são bastante entusiasmantes e promissoras. Contudo, há muito campo a ser explorado e diversas possíveis melhorias em cima do trabalho realizado, e diversas abordagens no próprio texto citadas que poderiam melhorar várias facetas do trabalho, aumentando confiança nos resultados obtidos. Por fim, o processo de aprendizagem e experimentação de técnicas no decorrer do projeto fortalece a possibilidade de melhoria em todos os seus âmbitos. Ademais, aquilo que foi proposto como linha central se encontra disponibilizado e pronto para ser usado como base para a segunda etapa, mais abstrata e exploratória do trabalho.
  • Item
    Seleção de variáveis por busca estocástica para epidemiologia espacial
    (2022-12) Pim, Isaque Vieira Machado
    O mapeamento de doenças tem um longo histórico em vigilância sanitária. Mapas provêm um resumo visual rápido da informação espacial, e permitem encontrar padrões que não apareceriam na forma tabular. Com o aumento da disponibilidade de dados georreferenciados, faz-se necessário o desenvolvimento de técnicas para a análise deste tipo de dados. Do ponto de vista epidemiológico, a modelagem dos padrões e estruturas de correlação, estimação dos parâmetros relevantes para o problema e a comparação de diferentes cenários e a predição para regiões sem observações são essenciais para compreensão do cenário e melhor alocação de recursos para reduzir os impactos de um possível surto. Neste trabalho, utilizo técnicas modernas, na forma de modelos hierárquicos Bayesianos, para estudar a distribuição do risco para uma doença e análise dos fatores relevantes para a propagação desta doença. O uso de modelos hierárquicos permite de forma robusta e flexível introduzir informações de covariáveis para o modelo, acomodar correlação espacial além de prover uma noção formal da incerteza associada às estimativas de risco. Em especial, consegue conciliar esquemas de seleção de variáveis junto com a estimação dos parâmetros de interesse do modelo. No Capítulo 2 reviso as duas principais técnicas utilizadas ao longo do texto: modelos condicionais autorregressivos (CAR) e seleção bayesiana de variáveis por busca estocástica (BSSVS). Modelos CAR são responsáveis por acomodar estrutura espacial dentro do modelo, enquanto a seleção de variáveis é feita por um esquema de busca estocástica acoplada ao modelo hierárquico. No Capítulo 3, aplico os métodos desenvolvidos para o caso de câncer labial na Escócia, comparando diferentes modelos e produzindo mapas de risco e quantidades de interesse. No Capítulo 4, aplico os métodos desenvolvidos para a epidemia de Ebola na África Ocidental que ocorreu nos anos de 2013-2016. Os dados do Ebola foram enriquecidos com informações filogenéticas como variáveis explanatórias. Os resultados são utilizados para produzir mapas de risco e realizar a predição de áreas sem observações.
  • Item
    Geodesic Tracing: um sistema de especificação e visualização de curvas e superfícies através de geodésicas
    (2022-12) Grundmann, Cristhian
    Curvas e superfícies costumam ser visualizados em um espaço ambiente 2D ou 3D. Esse projeto implementa essa visualização em 3D, e para superfícies, implementa também o Geodesic Tracing: uma visualização intrínseca à superfície, baseada em curvas geodésicas. Além de curvas e superfícies, o projeto permite visualizar pontos e vetores. Outros objetos auxiliares podem ser definidos, como parâmetros (controles deslizantes), funções e grades para instanciar objetos múltiplas vezes. Para a especificação dos objetos, uma linguagem textual foi estabelecida, acompanhada de um compilador capaz de transformar o texto em estruturas de dados úteis para a renderização. A linguagem é descrita por uma gramática livre-de-contexto in-ambígua. Para a interface gráfica, OpenGL é usado para a renderização, e Dear ImGUI é usado para construir os controles e janelas. O resultado é um sistema de performance em tempo real, testado em um conjunto de exemplos típicos. A estética dos gráficos, da interface e da linguagem não foram negligenciados, e se tornaram bastante agradáveis.
  • Item
    Classification and characterization of the space of phylogenetic trees
    (2022-12) Marciano, João Pedro de Abreu
    Phylogenetic trees are a family of planar graphs that are generally used to represent certain types of biological relationships, such as evolutionary relationships between species. This family of objects has applications in epidemiology, forensic sciences and several other areas. Therefore, it is essential to understand better the geometry of this family. This project consists of presenting the most used tree concepts and studying in depth properties of the phylogenetic tree space. We developed a survey that contains the main results of the area in the same place with the presentation focused on future application. Furthermore, we adapt the ideas of Song [15] to estimate the neighborhood with a fixed clade in the operation rooted SPR.
  • Item
    Exploração e modelagem informacional de dados públicos de saúde
    (2022-12) Alves, Marcos Antônio
    Dados capazes de descrever populações são difíceis de serem construídos, em muitos casos a população é grande, diversa e muda, forçando constantemente a atualização de estatísticas observadas. Dados públicos de saúde executam um importante papel nesse caso, pois possuem alto volume, boa frequência e podem ser utilizados de forma secundária sem custo adicional para observar características inerentes à população atendida e tentar entender a dinâmica com a população real. A maior utilidade desses dados é o acompanhamento de doenças, suas classes, sua distribuição geográfica, sua relação com características populacionais, etc. Estes dados tornaram-se mais evidentes durante a pandemia de Covid, era extremamente comum o acompanhamento diário da percentagem de vacinados, novos casos, mortes, etc. Estes números eram e são utilizados como parâmetros para tomada de decisões como flexibilização de regras como uso de máscara e lotação de ambientes, ou até mesmo para descobrir a eficácia de um tipo de vacina e o impacto de políticas sanitárias como o lockdown. O departamento de informática do SUS (DATASUS) fornece uma grande quantidade de dados provenientes das unidades públicas de saúde e dos demais atendimentos realizados pelo SUS. O objetivo inicial da criação do DATASUS foi a implementação de um banco para registrar e compensar as unidades de saúde pelos gastos com atendimentos, com o passar dos anos o departamento se expandiu e diversos dados foram agregados à coleta, consolidando hoje o repositório em 5 bancos principais: SINAM, SINASC, SIM, SIA e SIH. O fato do DATASUS disponibilizar os microdados abre um leque de possibilidades para a exploração desses dados. A exploração desses dados pode ser feita de diversas maneiras, idealmente a criação de um banco particular aplicado ao objeto de análise modelado como um data warehouse; a extração, padronização e carregamento dos dados e a computação e visualização de dados analíticos fornecidos pelos microdados. O recorte orientado ao assunto facilita a exploração dos dados, permitindo níveis de agregação. Neste trabalho, modelamos e criamos um banco para os microdados do SIH orientado ao perfil do paciente e aos detalhes da ocorrência. Uma vez com o banco populado, geramos estatísticas descritivas que são a base para a análise de perfil dos pacientes e das internações. Estruturalmente, os campos utilizados apresentam boa completude e precisão. Entre as informações apontadas pelos dados, podemos ver um viés étnico na procura por atendimento em unidades públicas e o impacto da Covid na taxa de mortalidade por outros diagnósticos.
  • Item
    Análise cienciométrica da FGV
    (2022-12) Silva, Matheus Edson Souza da
    A cienciometria é o estudo que procura medir o progresso científico a fim de quantificá-lo. Analisa o desenvolvimento da ciência como um processo informacional. Neste aspecto, o trabalho formulado tem como objetivo promover, através de ferramentas computacionais, uma análise cienciométrica das escolas da Fundação Getulio Vargas a fim de observar o grau de suas contribuições científicas.
  • Item
    Um estudo sobre causalidade
    (2022-12) Dall'Antonia, Pedro Rodrigues Castilho
    Neste trabalho, exploramos o campo da inferência causal através de modelos gráficos, desenvolvido por Judea Pearl. Começando com uma breve introdução aos conceitos de teorias dos grafos, e mergulhamos no tópico de Redes Bayesianas e seu papel em responder perguntas associativas, pertencentes ao primeiro nível da hierarquia causal. No segundo capítulo, enriquecemos a estrutura das Redes Bayesianas com mecanismos causais, dando origem as Redes Bayesianas Causais, o que nos possibilita responder perguntas sobre intervenções a partir de dados observacionais. Por fim, visitamos o mundo dos contrafactuais e as estruturas que possibilitam seu estudo, os modelos estruturados causais. Com os resultados desenvolvidos ao longo dos capítulos, temos em mãos ferramentas próprias para o estudo da causalidade e tomada de decisão.
  • Item
    Cointegration in discrete and continuous time and application to pairs trading
    (2022-12) Silva, Rodrigo Ribeiro da
    When creating trading strategies, the most usual approach is to suppose simple dynamics such as the Geometric Brownian Motion [2] for the assets and to use aggregate market indicators that condense systematic behavior. These procedures while providing a market view, fail to improve the understanding of single-asset continuous-time behavior. On the other hand, many improvements have been made to better model asset dynamics from the standard GBM to other models, mainly focused on volatility improvements as [5]. However, these approaches do not properly improve the modelling of the drift term. This work focuses on combining a property of co-movement of assets, that is, a systematic factor, while having a continuous-time model for each asset’s dynamics explained by a stochastic differential equation.
  • Item
    A survey on fully homomorphic encryption with statistical applications
    (2022-12) Oliveira, Rener de Souza
    The amount of data generated by individuals and enterprises is growing exponentially over the last decades, which empowers the use of machine learning methods since, for statistical purposes, the more data a model can have access to, the more accurately it will predict or represent reality. The problem emerges when the model must deal with sensitive data such as medical records, financial history, or genomic data; such cases requires additional caution in order to protect the privacy of data owners. Encrypting sensitive data might appear a good solution at first sight, but it can considerably limit the ability to do statistical analysis. This work is a survey on Fully Homomorphic Encryption (FHE), a special kind of cryptography scheme that still permits some machine learning methods to run over encrypted data, while having strong mathematical guarantees of privacy protection.
  • Item
    Modelagem e otimização da operação descentralizada de sistemas elétricos independentes
    (2022-12) Silva, Carolina Monteiro Carneiro da
    O problema do despacho ótimo para um grupo de sistemas elétricos interligados visa definir as quantidades de energia a serem geradas em cada gerador de cada sistema, bem como as quantidades de energia a ser transmitida entre cada par de sistemas, de forma a minimizar os custos. Uma pequena revisão bibliográfica mostra que é desejável que esse problema seja resolvido de forma descentralizada. Este trabalho apresenta um modelo para resolver o problema do despacho ótimo de sistemas elétricos interligados de forma descentralizada. Para isso, propõe o algoritmo da Operação Coordenada, que iterativamente define o fluxo de energia entre os sistemas com base nos custos marginais, e em seguida corrige os custos marginais com base nos novos fluxos. Experimentos numéricos são feitos baseados em dados fictícios de 3 sistemas, em que o primeiro sistema possui 7 geradores, o segundo possui 3 geradores, e o terceiro possui 2 geradores.
  • Item
    Single image 3D building reconstruction using adjacent rectangles parallel to an axis
    (2021-12) Ferranti, Tomás
    Historic photographic collections are valuable documents of urban evolution through time. Many historic buildings documented in such collections may have been demolished or changed over time. Digital modeling such buildings may be challenging due to the reduced amount of information available that may be limited to a few images and/ or schematic drawings. This work presents a method to creat a 3D set of rectangles that approximates elementes of a scene (such as walls, floors, and roofs) from a single image. Using a pinhole camera model, the extraction of geometry and texture of planes parallel to an axis can be obtained after a camera calibration step that recovers intrinsic parameters of the model. Knowing the exact dimension of an object within the model allows the retrieval of its true scale. Results show that a good visualization of the scene can be created, using the proposed technique, from a single image.
  • Item
    Estimando o fator básico de reprodução da COVID-19
    (2020-12) Campos, Matheus Henrique Popst de
    Este trabalho objetiva estimar o fator básico de reprodução (R0) da COVID-19 em municípios brasileiros com mais de 500 mil habitantes, usando dados da fase exponencial da COVID-19 em cada cidade. Para isso, o trabalho propõe uma forma de se encontrar a melhor fase exponencial. Além disso, o trabalho estuda a quantidade de vidas salvas por conta das medidas de isolamento social e fatores demográficos que possam explicar um maior ou menos grau de transmissão.
  • Item
    Penalised complexity priors for the reconstruction of past population size from phylogenies
    (2021-12) Couto, Cristiana Aparecida Nogueira
    This work seeks to understand the influence of prior distributions on inferences about population dynamics obtained from phylogenies. More specifically, considering the posterior results obtained from the Skyride model (Minin et al., 2008). The Skyride model assumes that the effective population size has a smooth trajectory and assigns a Gaussian Markov Random Fields (GMRF) prior to the logarithm of the effective population size. This model has an unknown precision parameter τ , associated with the smoothness of the curve. We propose an analysis investigating the choice of the prior for the τ parameter. In particular, we study the penalised complexity priors in comparison with the default choice of the Gamma distribution. A review of the literature was conducted, considering previous studies on the estimation of effective population size using phylogenies. Then, we conducted simulation studies to estimate the effective population size from phylogenetic trees. We run the experiments for phylogenies generated with the phylodyn package. We looked at populations with constant, exponential, cyclic, and bottleneck effect trajectories, and then performed experiments analyzing a real dataset of influenza A/H3N2. Finally, through the performance evaluation metrics, it was possible to show that a PC prior leads to more accurate results, regardless of the number of leaves in the phylogenetic tree.
  • Item
    A visual summary of spatio-temporal events that preserve áreas and neighborhoods in a 2D plot
    (2021-12) Valdrighi, Giovani de Almeida
    The analysis of time-evolving clusters is an essential task in the study of spatio-temporal data. People often use these clusters to represent events automatically detected in many fields, such as human mobility and disease outbreaks. Performing visual analysis of this data type is challenging for current state-of-the-art techniques due to factors such as spatial span covered by clusters, spatiotemporal intersections, and temporal evolution. All of this makes widely used geographical map-based techniques suffer from overplotting and cluttering, therefore, ineffective for this purpose. Visualization techniques used to analyze results use animation or interactivity to represent the three dimensions, but they show limitations on interpretation. To overcome these limitations, we present Events-Vis, a method for visualizing spatio-temporal clusters event data in a static temporal plot by representing the space in one dimension. We linearize the space using two strategies: a greedy algorithm and a convex optimization. In both cases, our goal is to preserve neighborhoods and intersections. We demonstrate the effectiveness of our method in a series of experiments and a case study using both synthetic and real-world datasets.
  • Item
    Inferring and explaining potential citations to binding precedents in Brazilian Supreme Court Decisions
    (2021-12) Domingues, Lucas Emanuel Resck
    The Brazilian Supreme Court (STF) is the highest law court in Brazil and it is primarily responsible for guarding the Brazilian Constitution. To reduce judicial insecurity and the high Court’s workload, a Constitutional Amendment from 2004 allowed STF to create binding precedents (“Súmulas Vinculantes,” BPs). A BP is a statement that consolidates the understanding of STF about a legal matter and has mandatory application for lower branches of the Judiciary. Frequently, an STF Justice cites a BP in a decision, and it is trivial to search for these explicit citations using regular expressions. However, it is not trivial to assert whether a decision potentially cites the statement, in the sense of “it should have cited it, but it did not” or “it addresses a similar issue, so they are related.” This work explores machine learning and natural language processing (NLP) algorithms to infer and explain these potential citations. The inference is performed using models from classical machine learning theory and recent NLP research, and the explanation is achieved using a machine learning explainability technique. The models learn what characterizes a citation through training on documents with explicit citations, in which we demonstrate they achieve high performance. We present two case studies that demonstrate the usefulness of the trained models to search for potential citations when accompanied by the explainability technique to inform the most relevant parts of the document for the potential citation assignment.