Skip to main content Skip to main navigation

Projekt

CORA4NLP

Ko(n)textuelles Schließen und Anpassung an den Kontext bei der Verarbeitung natürlicher Sprache

Ko(n)textuelles Schließen und Anpassung an den Kontext bei der Verarbeitung natürlicher Sprache

  • Laufzeit:
  • Anwendungsfelder
    Sonstige

Sprache ist implizit - sie lässt Informationen aus. Um diese Informationslücke zu füllen, sind kontextabhängige Inferenz, Hintergrund- und Allgemeinwissen sowie Schlussfolgerungen über den situativen Kontext erforderlich. Zudem entwickelt sich Sprache weiter, d.h. sie spezialisiert und verändert sich im Laufe der Zeit. Zum Beispiel gibt es viele verschiedene Sprachen und Domänen, neue Domänen entstehen, und beides entwickelt sich ständig weiter. Daher erfordert Sprachverständnis auch eine kontinuierliche und effiziente Anpassung an neue Sprachen und Domänen und den Transfer zu und zwischen beiden. Aktuelle sprachtechnologische Methoden des Sprachverstehens konzentrieren sich jedoch auf ressourcenreiche Sprachen und Domänen, verwenden wenig bis keinen Kontext und gehen von statischen Daten-, Aufgaben- und Zielverteilungen aus.

Die Forschung in Cora4NLP adressiert diese Herausforderungen.. Sie baut auf der Expertise und den Ergebnissen des Vorgängerprojekts DEEPLEE auf und wird gemeinsam von den sprachtechnologischen Forschungsabteilungen in Berlin und Saarbrücken durchgeführt. Konkret ist es unser Ziel, Methoden des natürlicher Sprachverstehens zu entwickeln, die folgendes ermöglichen:

  • Schlussfolgerungen über breitere Ko- und Kontexte;
  • effiziente Anpassung an neuartige und/oder ressourcenarme Kontexte;
  • kontinuierliche Anpassung an und Generalisierung über sich verändernde Kontexte.

Um dies zu erreichen, verfolgen wir die folgenden Forschungsrichtungen:

  • Speicher- und sprachmodellbasiertes few- und zero-shot learning;
  • Selbst- und schwach-überwachtes Pre-Training für ressourcenarme Domänen und Long-Tail-Klassen;
  • mehrsprachige, Intra- und Inter-Dokument-, sowie Dialog-Kontext-Repräsentationen;
  • Integration von strukturiertem Domänenwissen, Hintergrund- und Allgemeinwissen;
  • Kontinuierliches Lernen für Open-Domain- und überwachte Aufgaben;
  • multi-hop kontextuelles Schlussfolgern.

Die resultierenden Methoden werden im Kontext verschiedener Aufgaben zum Verstehen natürlicher Sprache angewendet, wie z.B. Informationsextraktion, Fragebeantwortung, maschinelle Übersetzung und Dialog.

Fördergeber

BMBF - Bundesministerium für Bildung und Forschung

01IW20010

BMBF - Bundesministerium für Bildung und Forschung

Publikationen zum Projekt

Tatiana Anikina; Natalia Skachkova; Anna Mokhova

In: Zdeněk ´abokrtský; Maciej Ogrodniczuk (Hrsg.). Proceedings of the CRAC 2023 Shared Task on Multilingual Coreference Resolution. Workshop on Computational Models of Reference, Anaphora and Coreference (CRAC-2023), located at EMNLP 2023, December 6-7, Singapore, Singapore, Pages 19-33, Association for Computational Linguistics, 12/2023.

Zur Publikation

Stalin Varanasi; Muhammad Umer Butt; Günter Neumann

In: Large Language Models for Natural Language Processing. International Conference on Recent Advances in Natural Language Processing (RANLP-2023), located at RANLP, September 4-6, Varna, Bulgaria, Pages 1171-1179, ISBN ISBN 978-954-452-092-2, INCOMA Ltd. Shoumen, BULGARIA, 9/2023.

Zur Publikation

Leonhard Hennig; Philippe Thomas; Sebastian Möller

In: Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). Annual Meeting of the Association for Computational Linguistics (ACL-2023), July 9-14, Online and Toronto, Canada, Pages 3785-3801, Association for Computational Linguistics, 7/2023.

Zur Publikation