Mostrar registro simples

dc.contributor.authorGabriel, Lucas Almada
dc.date.accessioned2021-04-21T00:31:16Z
dc.date.available2021-04-21T00:31:16Z
dc.date.issued2020-12
dc.identifier.urihttps://hdl.handle.net/10438/30378
dc.descriptionTrabalho de conclusão de curso - Lucas Almada Gabrielpor
dc.description.abstractMuitos algoritmos que possuem boa performance em diversos campos da literatura, tão logo são utilizados, recebem atenção do mercado financeiro. Prever com uma boa taxa de acerto o movimento das ações é o sonho de muitos investidores e utilizar os melhores modelos conhecidos é uma das formas de encontrar essa performance desejada. Não é diferente em relação aos algoritmos de Reinforcement Learning. Como pode ser observado em [12], existem alguns artigos com abordagem de trading e utilização de Reinforcement Learning. Porém, a quantidade de artigos sobre o assunto é bem baixa se comparado a modelos criados com algoritmos clássicos de machine learning. A baixa menção ao assunto reflete em sites e blogs que passam informações sobre análise de dados, uma vez que existem poucas postagens sobre o assunto. Por ser ainda um terreno pouco explorado, existe muito o que se estudar e melhorar em Reinforcement Learning. Em relação ao presente trabalho existem melhorias que serão feitas. A primeira adição futura é uma melhor engenharia de features. As features usadas seguem o modelo padrão de outros artigos ao utilizar OHLC das ações como input para o modelo. Uma boa modelagem tem a capacidade de aumentar significativamente a performance de modelos e algumas ideias de features serão implementadas futuramente. Outra melhoria a ser feita e a estruturação do ambiente construído. O ambiente e o cerne do funcionamento do modelo, e algumas ideias relacionados aos passos a serem tomadas pelo agente entre as posições ainda precisam ser implementadas. Por fim, uma mudança que ser a feita e segue uma linha de mudança de ambiente, e permitir que sejam colocadas mais ações em um mesmo modelo. Essa melhoria segue a linha de adicionar um portfólio, ou seja, adicionar várias ações e deixar que o agente escolha as oportunidades. No modelo atual, como é utilizada uma ação por modelo, o agente escolhe apenas que posição tomar em um determinado período.por
dc.language.isopor
dc.subjectDeeppor
dc.subjectReinforcement learningpor
dc.subjectMercado de açõespor
dc.subjectAlgoritmospor
dc.subjectFeaturespor
dc.titleDeep Reinforcement Learning aplicado ao mercado de açõespor
dc.typeTCeng
dc.subject.areaMatemáticapor
dc.contributor.unidadefgvEscolas::EMAppor
dc.subject.bibliodataBolsa de valorespor
dc.subject.bibliodataAlgoritmospor


Arquivos deste item

Thumbnail

Este item aparece na(s) seguinte(s) coleção(s)

Mostrar registro simples