Einblick in die Entwicklung

Im finalen Design kann sich der Körper in 12 und der Kopf in drei Freiheitsgraden bewegen. Natürlich gab es auch zahlreiche Studien zum Display:

https://www.youtube.com/playlist?list=PLRYtaQ-AMUMrN1ZFNsoPXWRQQLXOID4v3

https://www.youtube.com/playlist?list=PLw67VJAuUXEw9uSg4IcOIo0tNaQxBzY9H

Bellen kann der Hund im Übrigen auch. Für das Erkennen der Emotionen wurden

  • eine Sprachsteuerung entwickelt, sodass der Hund „aufs Wort“ hört (wenn er will),
  • eine Sentimental Analysis basierend auf Wörtern, sodass der Hund auf freundliche Kommandos anders reagieren kann (wenn er will) als auf unfreundliche und
  • eine Emotionserkennung auf Basis der gesprochenen Sprache, sodass der Hund zwischen fröhlich, traurig oder aggressiv gesprochenen Kommandos unterscheiden kann,

entwickelt.

Alle Komponenten wurden in Hardware und Software integriert. Als Softwarebasis und Kommunikationsplattform wurde das Robot Operating System (ROS) verwendet und die entwickelten Softwareumfänge verteilt auf einem NVIDIA Jetson, einem Intel Atom Board, zwei Raspberry Pis und einem Notebook ausgeführt. Als Fernsteuerung und Spracheingabegerät diente ein Tablet.

Alle mechanischen Teile wurden mit dem CAD Tool CATIA designed und im Anschluss mittels 3D Druck an der THI produziert. Damit konnten sehr schnell Design-Iterationen umgesetzt werden.