Noglik, Anastasia:
Effizientes Reinforcement-Learning für autonome Navigation
Duisburg, Essen, 2012
2012dissertation
Computer ScienceFaculty of Engineering » Computer Science and Applied Cognitive Science
Title in German:
Effizientes Reinforcement-Learning für autonome Navigation
Author:
Noglik, Anastasia
Thesis advisor:
Pauli, JosefUDE
GND
1160971668
LSF ID
10142
ORCID
0000-0003-0363-6410ORCID iD
Other
connected with university
Place of publication:
Duisburg, Essen
Year of publication:
2012
Extent:
VIII, 208 S.
DuEPublico 1 ID
Library shelfmark:
Note:
Duisburg, Essen, Univ., Diss., 2012
Language of text:
German

Abstract in German:

Immer mehr Autoren betrachten das Konzept der rationalen Agenten als zentral für den Zugang zur künstlichen Intelligenz. Das Ziel dieser Arbeit war es diesen Zugang zu verbessern. Also einen rationalen Roboter-Agenten zu konzipieren, zu implementieren und in mehreren realen Umgebungen zu testen. Der Roboter-Agent soll selbständig die Lösung für das gestellte, anspruchsvolle Navigationsproblem erlernen. Der Schwerpunkt liegt nicht in der Erstellung einer Umgebungskarte, sondern in der Entwicklung von Methoden, die dem Agenten erlauben das Navigationsproblem in unterschiedlichen Umgebungen selbständig zu lösen und die gefundenen Lösungen ständig zu verbessern. Viele Methoden der modernen Künstlichen Intelligenz, wie neuronale Netze, Evolutionäre Algorithmen und Reinforcement-Learning kommen in dieser Arbeit zur Geltung. Bei der Entwicklung der Agenten wird die bekannte Reinforcement-Learning-Methode angewendet. Durch Einbindung vorhandener und bisher ungenutzter Informationen wird der Lernprozess effizienter. Weiterhin wird durch die Gestaltung der im rationalen Agenten angewendeten Architektur die Anzahl der zur Lösung der Aufgabe benötigten Entscheidungsschritte signifikant reduziert, was in einer Effizienzsteigerung des Lernprozesses resultiert. Der mit passender Architektur und mit effizienten Lernmethoden ausgestattete rationale Agent kann direkt in der Realität seinen Weg erlernen und nach jedem Durchlauf verbessern.