Please use this identifier to cite or link to this item:
Full metadata record
DC FieldValueLanguage
dc.contributor.authorΡίζου, Αρσινόη Ειρήνηel
dc.rightsDefault License-
dc.subjectΒελτιστοποίηση υποχώρωνel
dc.subjectΑλγόριθμος Dog-legel
dc.subjectSubspace optimizationen
dc.titleΕπέκταση του αλγορίθμου "Dog-Leg" με βελτιστοποίηση εντός υποχώρωνel
dc.titleSubspace optimization extending the Dog-Leg algorithmen
heal.type.enMaster thesisen
heal.type.elΜεταπτυχιακή εργασίαel
heal.classificationΑλγόριθμοι υπολογιστώνel
heal.recordProviderΠανεπιστήμιο Ιωαννίνων. Πολυτεχνική Σχολή. Τμήμα Μηχανικών Ηλεκτρονικών Υπολογιστών και Πληροφορικήςel
heal.bibliographicCitationΒιβλιογραφία: σ. 56
heal.abstractΟ στόχος της παρούσας διατριβής, είναι να υλοποιηθεί μία βελτιωμένη εκδοχή του αλγορίθμου Powell’s Dogleg υπό δύο πτυχές. Αρχικά αυτή η εκδοχή λύνει το προκύπτον, δύο διαστάσεων πρόβλημα βελτιστοποίησης, ακριβώς και χειρίζεται θετικά και αρνητικά ορισμένους αλλά και απροσδιόριστους Εσσιανούς πίνακες στο ίδιο σημείο. Το σχήμα είναι αποτελεσματικό, υπολογιστικά αποδοτικό και απλό στην εφαρμογή. Ανάμεσα στις πολλές μεθοδολογίες βελτιστοποίησης, οι μέθοδοι Newton και Quasi-Newton είναι εκείνες που κατέχουν τα σκήπτρα της επιτυχίας για λείες συναρτήσεις με συνεχείς πρώτες και δεύτερες παραγώγους. Οι μέθοδοι Quasi-Newton δεν υπολογίζουν επακριβώς τον Εσσιανό Πίνακα αλλά χρησιμοποιούν ένα σχήμα ενημέρωσης για να χτίσουν μία προσέγγιση για αυτόν και χρησιμοποιούν μόνο τις πρώτες παραγώγους. Από την άλλη μεριά οι μέθοδοι Newton απαιτούν τον υπολογισμό της πρώτης και της δεύτερης παραγώγου της συνάρτησης. Υπάρχουν δύο προσεγγίσεις η «Ευθύγραμμη Αναζήτηση» και η «Περιοχή Εμπιστοσύνης». . Η παρούσα εργασία εστιάζει στις μεθόδους Newton υπό την δομή της τεχνικής Περιοχή Εμπιστοσύνης. Παρουσιάζονται ενδελεχώς και αναλυτικά οι παραπάνω μέθοδοι καθώς και τα μαθηματικά προαπαιτούμενα για την κατανόηση του περιεχομένου του τομέα της Βελτιστοποίησης.el
heal.abstractThe field of « Nonlinear Optimization » has undergone a tremendous development in the last decades with the advent powerful computers. Among the several optimization methodologies, Newton and Quasi-Newton are regarded as the most successful for smooth objective functions with continuous first and second derivatives. Quasi Newton (QN) methods do not need to explicitly calculate the Hessian matrix but use an updating scheme to build the estimation for it over several iterations and need only to calculate the gradient of the objective function. Newton methods on the other hand, require the calculation of both the gradient and the second derivative matrix (Hessian). There are two main approaches currently followed by Newton and QN methods, namely the “Line-search” and the “Trust-region” (also known as Restricted-step). The focus of the present thesis is on “Trust-region” Newton Methods. In particular, the approximate 2-d subspace minimization effected by Powell’s “Dog-Leg”, is replaced by an exact technique that can also treat higher dimensional subspaces. This improves Powell’s Dogleg in two aspects: a) Solves the arising two dimensional optimization subproblem exactly, and b) handles positive-definite, indefinite or negative-definite Hessian matrices on the same footing. The scheme is effective, computationally efficient, and rather simple to implement.en
heal.advisorNameΛαγαρής, Ισαάκ Η.el
heal.committeeMemberNameΛαγαρής, Ισαάκel
heal.committeeMemberNameΠαρσόπουλος, Κωνσταντίνοςel
heal.committeeMemberNameΝίκου, Χριστόφοροςel
heal.academicPublisherΠανεπιστήμιο Ιωαννίνων. Πολυτεχνική Σχολή. Τμήμα Μηχανικών Ηλεκτρονικών Υπολογιστών και Πληροφορικήςel
heal.numberOfPages58 σ.-
Appears in Collections:Διατριβές Μεταπτυχιακής Έρευνας (Masters) - ΜΥ

Files in This Item:
File Description SizeFormat 

This item is licensed under a Creative Commons License Creative Commons