Skip to main content Skip to main navigation

Projekt

IDEAS4GAMES

Intelligente Dialogsteuerung und Ausdrucksstarke Sprachsynthese für Computerspiele

  • Laufzeit:

In diesem Vorhaben sollen neue Interaktionsparadigmen und –Technologien erforscht werden, um die Flexibilität der Interaktion und Dialogführung in Computerspielen zu erweitern. Computergesteuerte Spielcharaktere sollen intelligentere und vielfältigere Dialoge führen können, als das mit heutiger Spieltechnologie möglich ist. Dadurch entsteht ein Technologievorsprung, der eine zukünftige industrielle Forschung und Produktentwicklung in Zusammenarbeit mit Berliner Firmen möglich machen soll.

Als Ergebnis der Forschungsarbeit werden die folgenden Innovationen angestrebt.

Intelligente Dialogsteuerung mit Methoden der Künstlichen Intelligenz

  • Anpassung des Dialogverlaufs an den aktuellen Kontext, die Aktionen des Benutzers und die zur Laufzeit berechneten Gefühle der virtuellen Charaktere;
  • Berücksichtigung des bisherigen Dialogverlaufs, um Wiederholungen zu vermeiden und um ein insgesamt konsistentes Gesamtverhalten zu generieren.

Modellierung von Emotionen und Persönlichkeit auf der Basis sozialpsychologischer Modelle

  • Integration von Emotionsmodellierung und Berechnung in eine Game-Engine;
  • Verbesserung des körperlichen Verhaltens von virtuellen Charakteren, z.B. Auswahl und individuelle Ausführung von (redebegleitenden) Gesten, Idlebewegungen, oder die Art des Gesichtsausdrucks;
  • Auswirkungen der berechneten Gefühle auf das Dialog- und Interaktionsverhalten von virtuellen Charakteren in Computerspielen.

Sprachsynthese mit verlässlicher Qualität

  • Einbettung von Sprachsynthese in eine Game-Engine;
  • Vorhersagbarkeit der Synthesequalität;
  • Reduzierung des manuellen Aufwands bei der Erstellung neuer synthetischer Stimmen;

Expressive Sprachsynthese

  • Generierung von spieltypischen Stimmen (Riese, Zwerg, Roboter,...) aus synthetischer Sprache mittels Sprachsignal-Manipulations­verfahren;
  • automatische Lernverfahren für emotionsspezifische Klangmuster aus Beispieldaten zwecks Generierung in der synthetischen Sprache;
  • Erhöhung der Bandbreite an möglicher Expressivität durch domänenspezifische und domänenorientierte Synthesestimmen.

Fördergeber

IBB Berlin

Publikationen zum Projekt

Marc Schröder; Patrick Gebhard; Marcela Charfuelan Oliva; Christoph Endres; Michael Kipp; Sathish Chandra Pammi; Martin Rumpler; Oytun Türk

In: Andreas Dengel; K. Berns; Thomas Breuel; Frank Bomarius; Thomas Roth-Berghofer (Hrsg.). KI 2008: Advances in Artificial Intelligence. German Conference on Artificial Intelligence (KI-2008), September 23-26, Kaiserslautern, Germany, Pages 316-323, Lecture Notes in Artificial Intelligence (LNAI), Vol. 5243, Springer, 2008.

Zur Publikation

Patrick Gebhard; Marc Schröder; Marcela Charfuelan Oliva; Christoph Endres; Michael Kipp; Sathish Chandra Pammi; Martin Rumpler; Oytun Türk

In: Helmut Prendinger; James C. Lester; Mitsuru Ishizuka (Hrsg.). Proceedings of the 8th International Conference on Intelligent Virtual Agents. International Conference on Intelligent Virtual Agents (IVA-2008), September 1-3, Tokyo, Japan, Pages 426-440, Lecture Notes in Artificial Intelligence (LNAI), Vol. 5208, ISBN 978-3-540-85482-1, Springer, 2008.

Zur Publikation