Παρακαλώ χρησιμοποιήστε αυτό το αναγνωριστικό για να παραπέμψετε ή να δημιουργήσετε σύνδεσμο προς αυτό το τεκμήριο: https://ruomo.lib.uom.gr/handle/7000/1260
Τίτλος: An Extensive Experimental Study on the Cluster-based Reference Set Reduction for Speeding-up the k-NN Classifier
Συγγραφείς: Ougiaroglou, Stefanos
Evangelidis, Georgios
Dervos, Dimitris A.
Τύπος: Conference Paper
Θέματα: FRASCATI::Natural sciences::Computer and information sciences
Λέξεις-Κλειδιά: Clustering
Data Reduction
Θέματα MESH: K-NN classification
Scalability
Ημερομηνία Έκδοσης: 2012
Πρώτη Σελίδα: 12
Τελευταία Σελίδα: 15
Τίτλος Τόμου: International Conference on Integrated Information 2011, Island of Kos, Greece
Επιτομή: The k-Nearest Neighbor (k-NN) classification algorithm is one of the most widely-used lazy classifiers because of its simplicity and ease of implementation. It is considered to be an effective classifier and has many applications. However, its ma- jor drawback is that when sequential search is used to find the neighbors, it involves high computational cost. Speeding-up k-NN search is still an active research field. Hwang and Cho have recently proposed an adaptive cluster-based method for fast Nearest Neigh- bor searching. The effectiveness of this method is based on the adjustment of three parameters. However, the authors evaluated their method by setting specific pa- rameter values and using only one dataset. In this pa- per, an extensive experimental study of this method is presented. The results, which are based on five real life datasets, illustrate that if the parameters of the method are carefully defined, one can achieve even better clas- sification performance
URI: http://ejournals.uniwa.gr/index.php/JIIM/article/view/3130
https://ruomo.lib.uom.gr/handle/7000/1260
Ηλεκτρονικό ISSN: 2623-4629
Εμφανίζεται στις Συλλογές: Τμήμα Εφαρμοσμένης Πληροφορικής

Αρχεία σε αυτό το Τεκμήριο:
Αρχείο Περιγραφή ΜέγεθοςΜορφότυπος 
2011_ICININFO_Ougiaroglou.pdf1,1 MBAdobe PDFΠροβολή/Ανοιγμα


Αυτό το τεκμήριο προστατεύεται από Αδεια Creative Commons Creative Commons