Παρακαλώ χρησιμοποιήστε αυτό το αναγνωριστικό για να παραπέμψετε ή να δημιουργήσετε σύνδεσμο προς αυτό το τεκμήριο:
https://ruomo.lib.uom.gr/handle/7000/878
Τίτλος: | Encoding Position Improves Recurrent Neural Text Summarizers |
Συγγραφείς: | Karanikolos, Apostolos Refanidis, Ioannis |
Επιμελητές: | Abbas, Mourad Freihat, Abed Alhakim |
Τύπος: | Conference Paper |
Θέματα: | FRASCATI::Natural sciences::Computer and information sciences |
Λέξεις-Κλειδιά: | natural language processing abstractive text summarization neural sequence to sequence models positional embeddings |
Ημερομηνία Έκδοσης: | Σεπ-2019 |
Εκδότης: | The Association for Computational Linguistics |
Πρώτη Σελίδα: | 143 |
Τελευταία Σελίδα: | 150 |
Τίτλος Τόμου: | Proceedings of the 3rd International Conference on Natural Language and Speech Processing (ICNLSP 2019) |
Επιτομή: | Modern text summarizers are big neural networks (recurrent, convolutional, or transformers) trained end-to-end under an encoder-decoder framework. These networks equipped with an attention mechanism, that maintains a memory of their source hidden states, are able to generalize well to long text sequences. In this paper, we explore how the different modules involved in an encoder-decoder structure affect the produced summary quality as measured by ROUGE score in the widely used CNN/Daily Mail and Gigaword summarization datasets. We find that encoding the position of the text tokens before feeding them to a recurrent text summarizer gives a significant, in terms of ROUGE, gain to its performance on the former but not the latter dataset. |
URI: | https://www.aclweb.org/anthology/W19-74.pdf https://ruomo.lib.uom.gr/handle/7000/878 |
Ηλεκτρονικό ISBN: | 978-1-950737-62-8 |
Εμφανίζεται στις Συλλογές: | Τμήμα Εφαρμοσμένης Πληροφορικής |
Αρχεία σε αυτό το Τεκμήριο:
Αρχείο | Περιγραφή | Μέγεθος | Μορφότυπος | |
---|---|---|---|---|
paper_8.pdf | Preprint | 889,59 kB | Adobe PDF | Προβολή/Ανοιγμα |
Τα τεκμήρια στο Αποθετήριο προστατεύονται από πνευματικά δικαιώματα, εκτός αν αναφέρεται κάτι διαφορετικό.