Please use this identifier to cite or link to this item: https://olympias.lib.uoi.gr/jspui/handle/123456789/29145
Full metadata record
DC FieldValueLanguage
dc.contributor.authorΣκέντα, Ερίσαel
dc.date.accessioned2018-10-15T11:22:20Z-
dc.date.available2018-10-15T11:22:20Z-
dc.identifier.urihttps://olympias.lib.uoi.gr/jspui/handle/123456789/29145-
dc.identifier.urihttp://dx.doi.org/10.26268/heal.uoi.2797-
dc.rightsDefault License-
dc.subjectΝευρωνικά δίκτυαel
dc.subjectΔίκτυα ακτίνας βάσηςel
dc.subjectΠροσέγγιση συναρτήσεωνel
dc.subjectΠολυεπίπεδα δίκτυα πρόσθιας τροφοδότησηςel
dc.subjectNeural networken
dc.subjectRBF networksen
dc.subjectApproximation functionen
dc.subjectMultilayer neural networken
dc.titleΠροσέγγιση και αναπαράστασή δεδομένων μιας διάστασης με συνδυασμό MLP και RBF νευρωνικών δικτύωνel
dc.titleApproximation and representation of data of one dimension with combination of MLP and RBF neural networken
heal.typemasterThesis-
heal.type.enMaster thesisen
heal.type.elΜεταπτυχιακή εργασίαel
heal.classificationΝευρωνικά δίκτυαel
heal.dateAvailable2018-10-15T11:23:20Z-
heal.languageel-
heal.accessfree-
heal.recordProviderΠανεπιστήμιο Ιωαννίνων. Πολυτεχνική Σχολή. Τμήμα Μηχανικών Ηλεκτρονικών Υπολογιστών και Πληροφορικήςel
heal.publicationDate2018-
heal.bibliographicCitationΒιβλιογραφία: σ. 117-120el
heal.abstractΗ παρούσα διατριβή πραγματεύεται την σύγκριση ενός εκτεταμένου Νευρωνικου Δικτύου(τύπου Multilayer Perceptron-MLP) με ένα υβριδικό σύστημα Nευρωνικών Δικτυών που αποτελείται από την εν σειρά σύνδεση μιας απλούστερης μορφής του πρώτου(MLP) και ενός RBF δικτύου. Τα Τεχνητά Nευρωνικά Δίκτυα μπορούν να λύσουν ορισμένης φύσεως προβλήματα σε διάφορους επιστημονικούς κλάδους. Το ενδιαφέρον για αυτά παραμένει μετά από τόσα χρόνια μελέτης τους, αυξημένο χάριν στην υπολογιστική τους ισχύ και στην ικανότητα τους να μαθαίνουν και να γενικεύουν. Το υβριδικό μας δίκτυο εκπαιδεύεται συνδυάζοντας τη μέθοδο μάθησης με επίβλεψη και την μάθηση χωρίς επίβλεψη. Με την πρώτη μέθοδο χωρίς επίβλεψη και πιο συγκεκριμένα με τον αλγόριθμο ομαδοποίησης k-means ορίζονται τα κέντρα του RBF ενώ για την αναπροσαρμογή των βαρών στα δυο δίκτυα τύπου MLP χρησιμοποιείται ο αλγόριθμος backpropagation. Ο αλγόριθμος backpropagation πραγματοποίει την αναπροσαρμογή των βαρών σύμφωνα με την τεχνική βελτιστοποιήσης απότομης καθόδου (gradient decent). Δηλαδή, υπολογίζει την κλίση του σφάλματος. Σε κάθε βήμα του αλγορίθμου, ενημερώνονται τα βάρη με βάση την κλίση του σφάλματος και το ρυθμό μάθησης. Η ενημέρωση των βαρών επαναλαμβάνεται μέχρις ότου να βρεθούν εκείνα τα βάρη που ελαχιστοποιούν το σφάλμα. Η επιδίωξη είναι να γίνει σύγκριση του υβριδικού δικτύου και ενός εκτεταμένου MLP όσον αφορά την ποιότητα της γενίκευσης. Για την επίτευξη της σύγκρισης αναπτύξαμε κατάλληλο κώδικα για την υλοποίηση των δικτυών και την διαδικασία της εκπαίδευσης τους. Παρατηρώντας τα αποτελέσματα, παρατηρήσαμε ότι ανεξαρτήτως συνάρτησης που εξετάσαμε, η γενικευτική ικανότητα του υβριδικού δικτύου ήταν ισάξια ή και καλύτερη από το εκτεταμένο MLP μιας και προσέγγιζε πολύ καλά τη συνάρτηση και παρουσίαζε μικρότερο σφάλμα σε σχέση πάντα με το σύνθετο MLP.el
heal.abstractOne of the most rapidly growing scientific fields is the one of the artificial networking. During the past years more and more neural-network based applications are being developed and applied in many and different environments. This exponential growth, arises from the fact that these artificial networks require a small computational power and at the same time they present a great capability in learning and generalize. In this thesis, we compare an extended Neural Network (Multilayer PerceptronMLP) with a hybrid network system, which consists of a small MLP(less number of nodes than extended MLP) and a RBF neural network. To train this hybrid network, we combine a supervised with an unsupervised learning method. The unsupervised learning method, and more specifically the k-means algorithm is used to find the centers of the RBF nodes. On the other hand, MLP networks utilize a supervised learning technique called bagkpropagation for adjusting the weights. Backpropagation is used by the gradient descent optimization algorithm to adjust the weight of neurons by calculating the gradient of the loss function. In every step of the algorithm, the weights are updated on the basis of the learning rate and the slope of error. The weights are updated until the algorithm find the ones which minimize the error. The main target is to compare the hybrid network with an extended MLP, in terms of generalizing ability. In order to achieve this goal, we’ve developed a specific code, for the implementation of networks and their learning procedure. After examination of the results, we noticed that the capability of the Hybrid network, to approximate each function examined, was almost similar or better to the one of the extended MLP. The approximation of the functions was similarly good whereas the error of the Hybrid was less than the extended MLP.en
heal.advisorNameΛαγαρής, Ισαάκel
heal.committeeMemberNameΛαγαρής, Ισαάκel
heal.committeeMemberNameΠαρσόπουλος, Κωνσταντίνοςel
heal.committeeMemberNameΜπλέκας, Κωνσταντίνοςel
heal.academicPublisherΠανεπιστήμιο Ιωαννίνων. Πολυτεχνική Σχολή. Τμήμα Μηχανικών Ηλεκτρονικών Υπολογιστών και Πληροφορικήςel
heal.academicPublisherIDuoi-
heal.numberOfPages120 σ.-
heal.fullTextAvailabilitytrue-
Appears in Collections:Διατριβές Μεταπτυχιακής Έρευνας (Masters) - ΜΥ

Files in This Item:
File Description SizeFormat 
Μ.Ε. ΣΚΕΝΤΑ ΕΡΙΣΑ 2018.pdf7.03 MBAdobe PDFView/Open


This item is licensed under a Creative Commons License Creative Commons