Παρακαλώ χρησιμοποιήστε αυτό το αναγνωριστικό για να παραπέμψετε ή να δημιουργήσετε σύνδεσμο προς αυτό το τεκμήριο: https://ruomo.lib.uom.gr/handle/7000/878
Τίτλος: Encoding Position Improves Recurrent Neural Text Summarizers
Συγγραφείς: Karanikolos, Apostolos
Refanidis, Ioannis
Επιμελητές: Abbas, Mourad
Freihat, Abed Alhakim
Τύπος: Conference Paper
Θέματα: FRASCATI::Natural sciences::Computer and information sciences
Λέξεις-Κλειδιά: natural language processing
abstractive text summarization
neural sequence to sequence models
positional embeddings
Ημερομηνία Έκδοσης: Σεπ-2019
Εκδότης: The Association for Computational Linguistics
Πρώτη Σελίδα: 143
Τελευταία Σελίδα: 150
Τίτλος Τόμου: Proceedings of the 3rd International Conference on Natural Language and Speech Processing (ICNLSP 2019)
Επιτομή: Modern text summarizers are big neural networks (recurrent, convolutional, or transformers) trained end-to-end under an encoder-decoder framework. These networks equipped with an attention mechanism, that maintains a memory of their source hidden states, are able to generalize well to long text sequences. In this paper, we explore how the different modules involved in an encoder-decoder structure affect the produced summary quality as measured by ROUGE score in the widely used CNN/Daily Mail and Gigaword summarization datasets. We find that encoding the position of the text tokens before feeding them to a recurrent text summarizer gives a significant, in terms of ROUGE, gain to its performance on the former but not the latter dataset.
URI: https://www.aclweb.org/anthology/W19-74.pdf
https://ruomo.lib.uom.gr/handle/7000/878
Ηλεκτρονικό ISBN: 978-1-950737-62-8
Εμφανίζεται στις Συλλογές: Τμήμα Εφαρμοσμένης Πληροφορικής

Αρχεία σε αυτό το Τεκμήριο:
Αρχείο Περιγραφή ΜέγεθοςΜορφότυπος 
paper_8.pdfPreprint889,59 kBAdobe PDFΠροβολή/Ανοιγμα


Τα τεκμήρια στο Αποθετήριο προστατεύονται από πνευματικά δικαιώματα, εκτός αν αναφέρεται κάτι διαφορετικό.