Mit unseren Methoden können wir Trends aus stetig wachsenden Mengen unstrukturierter Daten valide und schnell erkennen. Dafür verwenden wir ein eigenentwickeltes Verfahren, das verschiedene Datenquellen wie RSS-Feeds, Homepages, Newsletter, Beiträge in Social Media-Plattformen, wissenschaftliche Veröffentlichungen oder Patentanmeldungen fortlaufend und sprachübergreifend verarbeitet.

Forschungsschwerpunkt I: Natural Language Processing

Im Rahmen von Natural Language Processing, der Verarbeitung von natürlicher Sprache, werden unstrukturierte Sprachdaten in ein strukturiertes Datenformat umgewandelt. Dies soll es Maschinen ermöglichen, Sprache sowie Text zu identifizieren und zu verstehen, um im Anschluss relevante Antworten zu generieren. Der Unterbereich Natural Language Unterstanding (NLU), befasst sich mit dem reinen Verständnis natürlicher Sprache. Dabei konzentriert sich NLU primär auf maschinelles Leseverständnis. Dazu werden vorwiegend Grammatik sowie Kontext analysiert, um den Sinn sowie die Bedeutsamkeit eines Satzes zu identifizieren. Um natürliche Sprache zu erzeugen, wird der zweite Unterbereich Natural Language Generation (NLG) verwendet. NLG befasst sich vorwiegend mit der Konstruktion von Texten. Auf Grundlage eines vorliegenden Datensatzes kann eine Maschine dabei Texte in unterschiedlichen Sprachen konstruieren.

Folgende Aufgabengebiete betreffen die FE-Forschung:

Quelle: Eggers, W., Mali, N., Gracie, M. (2019): Using AI to unleash the power of unstructured government data. Deloitte. Online verfügbar unter https://www2.deloitte.com/us/en/insights/focus/cognitive-technologies/natural-language-processing-examples-in-government-data.html

Forschungsschwerpunkt II: Semantic Web

Die Entitäten und Relationen aus vorhergegangen Arbeitsschritten im NLP-Prozesses werden in einen Wissensgraphen gesichert. Die Basistechnologien für den Aufbau von Wissensgraphen (“Knowledge Graphs”) sind bereits seit längerem etabliert. Graphbasierte Datenstrukturen erlauben das Verknüpfen unterschiedlich formatierter Datensätze und die dynamische Erweiterung um zusätzliche Klassen. Um extrahierte Informationen in einem Wissensgraphen semantisch verknüpfen zu können, bedarf es vorab eines domänenspezifischen Regelwerkes (Ontologie). Dieses beschreibt die für einen Markt zulässigen Relationsklassen (z. B. Bestellung, Forschung, Einsatz), Entitätstypen (Produkt, Technologie, Organisation etc.) und Metainformationen (Zeitstempel, Quelle der Information etc.). Des Weiteren besteht die Möglichkeit, zusätzliches Wissen aus externen Wissensgraphen (Diffbot, Wikidata, Dimensions.ai etc.) mit einzubinden.

Folgende Aufgabengebiete betreffen die FE-Forschung:

Darstellung in Anlehnung an Eggers, W., Mali, N., Gracie, M. (2019): Using AI to unleash the power of unstructured government data. Deloitte. Online verfügbar unter https://www2.deloitte.com/us/en/insights/focus/cognitive-technologies/natural-language-processing-examples-in-government-data.html