Universität Bielefeld: Mit neuer Software lernen Roboter beim Sprechen zu gestikulieren
Bielefeld (wh). Roboter und Avatare lernen mit Gesten zu sprechen: Ein Forschungsteam von der Technischen Fakultät der Universität Bielefeld hat jetzt eine Computersoftware entwickelt, die verbale Sprache mit sinnvollen Gebärden unterstützt.
Bisher haben sich die technischen Helfer häufig gar nicht beim Sprechen bewegt oder ihre Körpersprache passte nicht zu dem, was sie gesagt haben. Dabei seien Gesten für die Organisation der gesprochenen Inhalte wichtig, sagt Prof. Stefan Kopp, Leiter der Forschungsgruppe, und fügt hinzu: "Gesten tragen oft wichtige Informationen, die nicht in der Sprache sind. Sie senken so die geistige Beanspruchung des Sprechenden."
Die Wissenschaftler der Universität Bielefeld haben deshalb ein System entwickelt, das die inneren Prozesse, die im Kopf ablaufen, wenn Menschen sprechen und gestikulieren, vorhersagen und modellieren kann. So können unter anderem Robotern Gesten beigebracht werden und Avatare " eine künstliche Person oder ein grafischer Stellvertreter einer echten Person " mit natürlich wirkenden Gebärden programmiert werden.