Παρακαλώ χρησιμοποιήστε αυτό το αναγνωριστικό για να παραπέμψετε ή να δημιουργήσετε σύνδεσμο προς αυτό το τεκμήριο: https://ruomo.lib.uom.gr/handle/7000/878
Πλήρης εγγραφή μεταδεδομένων
Πεδίο DCΤιμήΓλώσσα
dc.contributor.authorKaranikolos, Apostolos-
dc.contributor.authorRefanidis, Ioannis-
dc.contributor.editorAbbas, Mourad-
dc.contributor.editorFreihat, Abed Alhakim-
dc.date.accessioned2021-04-02T15:24:42Z-
dc.date.available2021-04-02T15:24:42Z-
dc.date.issued2019-09-
dc.identifier.urihttps://www.aclweb.org/anthology/W19-74.pdfen_US
dc.identifier.urihttps://ruomo.lib.uom.gr/handle/7000/878-
dc.description.abstractModern text summarizers are big neural networks (recurrent, convolutional, or transformers) trained end-to-end under an encoder-decoder framework. These networks equipped with an attention mechanism, that maintains a memory of their source hidden states, are able to generalize well to long text sequences. In this paper, we explore how the different modules involved in an encoder-decoder structure affect the produced summary quality as measured by ROUGE score in the widely used CNN/Daily Mail and Gigaword summarization datasets. We find that encoding the position of the text tokens before feeding them to a recurrent text summarizer gives a significant, in terms of ROUGE, gain to its performance on the former but not the latter dataset.en_US
dc.language.isoenen_US
dc.publisherThe Association for Computational Linguisticsen_US
dc.subjectFRASCATI::Natural sciences::Computer and information sciencesen_US
dc.subject.othernatural language processingen_US
dc.subject.otherabstractive text summarizationen_US
dc.subject.otherneural sequence to sequence modelsen_US
dc.subject.otherpositional embeddingsen_US
dc.titleEncoding Position Improves Recurrent Neural Text Summarizersen_US
dc.typeConference Paperen_US
dc.contributor.departmentΤμήμα Εφαρμοσμένης Πληροφορικήςen_US
local.identifier.firstpage143en_US
local.identifier.lastpage150en_US
local.identifier.volumetitleProceedings of the 3rd International Conference on Natural Language and Speech Processing (ICNLSP 2019)-
local.identifier.eisbn978-1-950737-62-8en_US
Εμφανίζεται στις Συλλογές: Τμήμα Εφαρμοσμένης Πληροφορικής

Αρχεία σε αυτό το Τεκμήριο:
Αρχείο Περιγραφή ΜέγεθοςΜορφότυπος 
paper_8.pdfPreprint889,59 kBAdobe PDFΠροβολή/Ανοιγμα


Τα τεκμήρια στο Αποθετήριο προστατεύονται από πνευματικά δικαιώματα, εκτός αν αναφέρεται κάτι διαφορετικό.