Κατάλογος Εκδηλώσεων

20
Φεβ

Παρουσίαση Διπλωματικής Εργασίας κ. Παπαθανασίου Θεόδωρου - Σχολή ΗΜΜΥ
Κατηγορία: Παρουσίαση Διπλωματικής Εργασίας  
ΤοποθεσίαΛ - Κτίριο Επιστημών/ΗΜΜΥ, 2041
Ώρα20/02/2020 11:00 - 12:00

Περιγραφή:

Θέμα
Επιτάχυνση Διαδικασιών Βαθιάς Ενισχυτικής Μάθησης μέσω Μίμησης
Accelerating Deep Reinforcement Learning via Imitation

Εξεταστική Επιτροπή
Αναπληρωτής Καθηγητής Χαλκιαδάκης Γεώργιος (επιβλέπων)
Αναπληρωτής Καθηγητής Σαμολαδάς Βασίλειος
Καθηγητής Μπλέτσας Άγγελος

Περίληψη
Η μίμηση έχει εξελιχθεί στο φυσικό περιβάλλον ως προηγμένο συμπεριφορικό εργαλείο για τη μεταφορά γνώσης μεταξύ οργανισμών. Μπορεί να παρατηρηθεί στις περισσότερες μορφές ζωής με υψηλότερα επίπεδα νοημοσύνης όπως στα μέλη των ομάδων simian (πρωτεύοντα, πίθηκοι), delphinidae (δελφίνια) και corvus (κοράκια, κίσσες). Τα πλεονεκτήματά της έναντι της ενστικτώδους δράσης μπορούν να παρατηρηθούν στην ξεκάθαρη επιτυχία των οργανισμών ικανών για μιμητική μάθηση σε όλα τα οικοσυστήματα του κόσμου.
Στη μηχανική μάθηση, η μίμηση έχει υλοποιηθεί με τη μορφή εποπτευόμενης μάθησης και έχει χρησιμοποιηθεί στην ενισχυτική μάθηση μέσω τεχνικών απευθείας μίμησης. Επιπρόσθετα, η έμμεση μίμηση έχει δοκιμαστεί ως εναλλακτική μέθοδος άμεσης μεταφοράς γνώσης τόσο σε μονοπρακτορικά όσο και σε πολυπρακτορικά συστήματα, με σκοπό την επιτάχυνση του ρυθμού εκπαίδευσης των πρακτόρων μέσω της χρήσης εμπειριών από προηγούμενες συνεδρίες ή άλλους πράκτορες. Παρόλο που οι τεχνικές αυτές έχουν παρουσιάσει πληθώρα υποσχόμενων αποτελεσμάτων, μέχρι σήμερα δεν έχουν επωφεληθεί από την πρόσφατη επιτυχία των τεχνητών νευρωνικών δικτύων και της βαθιάς μάθησης.
Σε αυτή τη διπλωματική εργασία, προτείνουμε την εφαρμογή εμμέσου μίμησης σε τεχνικές βαθιάς ενισχυτικής μάθησης χωρίς μοντέλο προκειμένου να επιταχυνθούν τα στάδια εκπαίδευσης των αντίστοιχων πρακτόρων. Εν συντομία, εξάγοντας την υπάρχουσα εμπειρία από έναν πράκτορα- μέντορα και μεταλλάσσοντας τις εξισώσεις Bellman ενός άλλου πράκτορα-παρατηρητή ώστε να μπορεί να επωφεληθεί από αυτή, καταφέρνουμε να προσφέρουμε έναν τρόπο καθοδήγησης της εκπαίδευσης. Ο πράκτορας-παρατηρητής αποφασίζει εάν θα εμπιστευτεί ή θα αγνοήσει τις πληροφορίες αυτές βάσει ενός μηχανισμού ελέγχου εμπιστοσύνης. Μέσω των πειραμάτων μας δοκιμάζουμε το μοντέλο μας σε μία παραλλαγή του αλγορίθμου DQN σε κλασικά περιβάλλοντα ελέγχου και παρουσιάζουμε επιταχυμένα επίπεδα μάθησης. Αν και περιορίζουμε τις δοκιμές μας σε έναν μόνο αλγόριθμο βαθιάς μάθησης και σε απλά περιβάλλοντα, σχολιάζουμε τις επεκτάσεις του μοντέλου μας σε άλλους πράκτορες και πιο πολύπλοκα περιβάλλοντα.

Abstract
Imitation has evolved in nature as an advanced behavioural tool for knowledge transfer between individuals. It can be observed in most of the higher intelligence life forms such as members of the simian (monkeys & apes), delphinidae (dolphins) and corvus (crows, ravens, jackdows) groups. Its advantages over instinctual acting and habituation can be seen in the vast success of the animals capable of imitation learning, throughout the world's ecosystems.
In machine learning mimicry and imitation have been implemented in the form of supervised learning, and have been used in reinforcement learning through explicit imitation techniques. Implicit imitation has been also tested as an alternative to direct knowledge transfer in single and multiagent systems in order to accelerate individual agent learning rates by use of extracted experiences from previous sessions or other cooperative agents. Even though these techniques have achieved promising results, they have not to date taken advantage of the recent success of neural networks and deep learning.
In this thesis, we propose the application of implicit imitation on model-free, deep reinforcement learning techniques in order to speed up the learning stages of the respective agents. Briefly, by extracting experience from a mentor agent and augmenting the Bellman backups of another agent to benefit from this experience, we manage to provide a way of guidance. The observer decides whether to trust or disregard that information based on a confidence testing mechanism. We test our model on a DQN variant in classic control environments and demonstrate accelerated learning via our experiments. Though we limit our tests to one deep learning algorithm and simple settings, we comment on extensions of our model to other agents and more complex environments.
 

© Σχολή Ηλεκτρολόγων Μηχανικών & Μηχανικών Υπολογιστών 2014
Πολυτεχνείο Κρήτης