Analyse von KI-Ansätzen für das Trainieren virtueller Roboter mit Gedächtnis: Unterschied zwischen den Versionen

Aus SDQ-Institutsseminar
(Die Seite wurde neu angelegt: „{{Vortrag |vortragender=Julian Roßkothen |email=julian.rosskothen@student.kit.edu |vortragstyp=Bachelorarbeit |betreuer=Daniel Zimmermann |termin=Institutssem…“)
 
Keine Bearbeitungszusammenfassung
 
Zeile 5: Zeile 5:
|betreuer=Daniel Zimmermann
|betreuer=Daniel Zimmermann
|termin=Institutsseminar/2021-06-25
|termin=Institutsseminar/2021-06-25
|kurzfassung=TBA
|kurzfassung=In dieser Arbeit werden mehrere rekurrente neuronale Netze verglichen.
 
Es werden LSTMs, GRUs, CTRNNs und Elman Netze untersucht. Die Netze werden dabei untersucht sich einen Punkt zu merken und anschließend nach dem Punkt mit einem virtuellen Roboterarm zu greifen.
 
Bei LSTM, GRU und Elman Netzen wird auch untersucht wie die Netze die Aufgabe lösen, wenn jedes Neuron nur auf den eigenen Speicher zugreifen kann.
 
Dabei hat sich herausgestellt, dass LSTMs und GRUs deutlich besser bei den Experimenten bewertet werden als CTRNNs und Elman Netze.
Außerdem werden die Rechenzeit und der Zusammenhang zwischen der Anzahl der zu trainierenden Parameter und der Ergebnisse der Experimente verglichen.
}}
}}

Aktuelle Version vom 1. Juni 2021, 17:17 Uhr

Vortragende(r) Julian Roßkothen
Vortragstyp Bachelorarbeit
Betreuer(in) Daniel Zimmermann
Termin Fr 25. Juni 2021
Vortragsmodus
Kurzfassung In dieser Arbeit werden mehrere rekurrente neuronale Netze verglichen.

Es werden LSTMs, GRUs, CTRNNs und Elman Netze untersucht. Die Netze werden dabei untersucht sich einen Punkt zu merken und anschließend nach dem Punkt mit einem virtuellen Roboterarm zu greifen.

Bei LSTM, GRU und Elman Netzen wird auch untersucht wie die Netze die Aufgabe lösen, wenn jedes Neuron nur auf den eigenen Speicher zugreifen kann.

Dabei hat sich herausgestellt, dass LSTMs und GRUs deutlich besser bei den Experimenten bewertet werden als CTRNNs und Elman Netze. Außerdem werden die Rechenzeit und der Zusammenhang zwischen der Anzahl der zu trainierenden Parameter und der Ergebnisse der Experimente verglichen.