Ziele
Um Industrie, Wissenschaft und Gesellschaft in Deutschland und Europa optimal auf den globalen Big-Data-Trend vorzubereiten, sind hochgradig koordinierte Aktivitäten in Forschung, Lehre und Technologietransfer hinsichtlich der Integration von Datenanalysemethoden und skalierbarer Datenverarbeitung erforderlich. Dazu verfolgt das Berliner Big Data Center die folgenden sieben Ziele:
- Bündelung der Kompetenzen in den Bereichen skalierbares Datenmanagement, Datenanalyse und Big-Data-Anwendung.
- Durchführung von Grundlagenforschung zur Entwicklung neuartiger und automatisch skalierbarer Technologien, die in der Lage sind, eine Tiefenanalyse von Big Data durchzuführen.
- Entwicklung eines integrierten, deklarativen, hochskalierbaren Open-Source-Sytems, das die Spezifikation, automatische Optimierung, Parallelisierung und Hardware-Anpassung sowie die fehlertolerante, effiziente Ausführung von fortgeschrittenen Datenanalyseproblemen unter Verwendung unterschiedlicher Methoden (z.B. aus maschinellem Lernen, linearer Algebra, Statistik und Wahrscheinlichkeitstheorie, Computerlinguistik oder Signalverarbeitung) ermöglicht, unter Nutzung unserer Arbeit an Apache Flink.
- Transfer von Technologie Know-how zur Unterstützung von Innovationen in Unternehmen und Neugründungen.
- Ausbildung von Datenwissenschaftlern in Bezug auf die fünf großen Datendimensionen (d.h. Anwendungen, Wirtschaft, Recht, Soziales und Technologie) durch führende Ausbildungsprogramme.
- Menschen zur Nutzung von “Smart Data” befähigen, z.B. zur Entdeckung neu gewonnener Informationen auf der Grundlage ihrer umfangreichen Datensätze.
- Befähigung der Allgemeinheit, fundierte datengestützte Entscheidungen zu treffen.