Aaliyah, ein Roboter mit Emotionen

Im Projekt Aaliyah wurde ein Roboterkopf realisiert, der mit seiner Umwelt mit Gesten und Emotionen kommuniziert.   Der Roboter ist in der Lage, verschiedene Emotionen auszudrücken. Um die Emotionen frei programmieren zu können, wurden die Gesten als Facial Actions basierend den Facial Action Coding System von Paul Ekman  implementiert. Er kann seine Lage um alle drei Rotationsachsen verdrehen und seine Position vor und zurück verändern. Der Roboter beobachtet die Umgebung mit seinen beiden Kameras und folgt den Objekten mit seinen Augen und seinem Kopf, wobei die Augen mit hoher Bandbreite schnell und der Kopf langsame nachfolgt. Dafür kann er die Blickrichtung der Augen unabhängig voneinander festlegen und seine oberen und unteren Augenlieder unabhängig bewegen. Er bewegt seine Lippen mit sechs Freiheitsgraden und seinen Mund mit eine zusätzlichen Freiheitsgrad. Die Augenbrauen haben je 3 Freiheitsgrade. Zusätzlich lasse sich die Nasenflügel, Wangenmuskeln und Ohren separat bewegen.

Weitere Informationen

Datum 09.08.2016
Kategorien Automatisierung / Robotik
Institute EMS
Projektleiter Prof. Einar Nielsen