FGV Repositório Digital
    • português (Brasil)
    • English
    • español
      Acesse:
    • FGV Biblioteca Digital
    • FGV Periódicos científicos e revistas
  • português (Brasil) 
    • português (Brasil)
    • English
    • español
  • Entrar
Ver item 
  •   Página inicial
  • FGV EMAp - Escola de Matemática Aplicada
  • FGV EMAp - Trabalhos de Conclusão de Curso
  • Ver item
  •   Página inicial
  • FGV EMAp - Escola de Matemática Aplicada
  • FGV EMAp - Trabalhos de Conclusão de Curso
  • Ver item
JavaScript is disabled for your browser. Some features of this site may not work without it.

Navegar

Todo o repositórioComunidades FGVAutorOrientadorAssuntoTítuloDataPalavra-chaveEsta coleçãoAutorOrientadorAssuntoTítuloDataPalavra-chave

Minha conta

EntrarCadastro

Estatísticas

Ver as estatísticas de uso

Transformers: teoria e viabilização

Thumbnail
Visualizar/Abrir
Trabalho de conclusão de curso - Leonardo Santana Dantas (2.420Mb)
Data
2021-07
Autor
Dantas, Leonardo Santana
Orientador
Souza, Renato Rocha
Metadados
Mostrar registro completo
Resumo
Transformers atualmente representam uma das classes mais poderosas de modelos de aprendizado de máquina para processamento de linguagem natural (PLN). Neste trabalho, exploramos os conceitos teóricos por trás dessa arquitetura de redes neurais, os desafios do cenário presente e os aprimoramentos de eficiência propostos na literatura desde a introdução desses modelos.
URI
https://hdl.handle.net/10438/30819
Coleções
  • FGV EMAp - Trabalhos de Conclusão de Curso [45]
Áreas do conhecimento
Matemática
Assunto
Redes neurais (Computação)
Processamento da linguagem natural (Computação)
Aprendizado do computador
Palavra-chave
Aprendizado de máquina
Redes neurais artificiais
Processamento de linguagem natural

DSpace software copyright © 2002-2016  DuraSpace
Entre em contato | Deixe sua opinião
Theme by 
@mire NV
 

 


DSpace software copyright © 2002-2016  DuraSpace
Entre em contato | Deixe sua opinião
Theme by 
@mire NV
 

 

Importar metadado