Arbeitsgruppe Verteilte Systeme

Forschungsthemen

Die Arbeitsgruppe beschäftigt sich mit verteilten Systemen, Hardware-Software-Co-Design, Datenanalyse, Signalverarbeitung & Maschinelles Lernen und Sicherheit in Kommunikationssystemen und hat einen besonderen Bezug in der Anwendung dieser Technologien in verschiedenen Disziplinen (Medizin, Logistik, Mobilität, Mittelstand).

Das Internet der Dinge als Basis für Industrie 4.0 ist allgegenwärtig und stellt Wissenschaft und Gesellschaft vor neue Herausforderungen. Die Bereiche Maschinenbau, Elektrotechnik und Informatik wachsen in Zukunft daher immer stärker zusammen. Häufig wir daher der Begriff cyberphysische Systeme verwendet, um zu verdeutlichen, dass in Zukunft die Technologie mit unserer Umwelt verschmilzt. Diese Vernetzung und Digitalisierung kann neben Risiken wie Gefährdung der Informationssicherheit, die ein zentrales Thema der Forschung der Arbeitsgruppe sind, auch große Chancen eröffnen den globalen Herausforderungen zu begegnen. 

Ein Forschungsgebiet der Verteilten Systeme ist hierbei die verteilte und effiziente Umsetzung klassischer Konzepte wie Signalverarbeitung & Maschinelles Lernen. Frühere Algorithmen der Signalverarbeitung waren für gering-dimensionale Signale optimiert und die Implementierung in DSPs entsprechend einfach. Heutige Anwendungen generieren hochdimensionale Datensätze und verlangen die Umsetzung komplexerer Datenverarbeitungssysteme und Algorithmen. Verarbeitungsschritte der Signalverarbeitung und des Machine Learning sind heute zunehmend in komplexen verteilten Verarbeitungsketten umgesetzt. Klassische Konzepte der Informatik und Informationstechnik müssen also für zukünftige intelligente cyberphysische Systeme (CPS) weiterentwickelt werden. Aufgrund ihrer verteilten und dezentralen Natur müssen für CPS neue verteilte und effiziente Optimierungsverfahren, Algorithmen für die Datenanalyse und Wissensextraktion und Hardware-Plattformen erforscht werden. 

Im folgenden sind die drei zentralen Forschungsgebiete der Arbeitsgruppe exemplarisch beschrieben:

Forschungsfeld 1 - Plattformen für digitale Dienste: 

IoT- & KI-Plattformen: Die wertvollsten Internet-Plattformen der Welt sind in den USA und Asien. Europäische IT-Plattformen sind weit abgeschlagen. In der neuen Welle der Digitalisierung wird jetzt die physische Welt mit dem Internet vernetzt und intelligenete Dienste (Smart Services) werden hierfür entwickelt. Für die Deutsche Wirtschaft mit seiner starken Industrie ist die Entwicklung geeigneter Plattformen enorm wichtig, damit sie in den Bereichen Industrie, Mobilität und Medizin nicht ihre Spitzenposition verliert. Insbesondere der Mittelstand benötigt einfache und leicht handhabbare Plattformen mit denen sich neue Technologien wie z.B. Blockchain & KI für neu Dienste und Geschäftsideen nutzbar sind. Zur Beschleunigung der Entwicklung neuer Smart Services und Geschäftsideen für das Internet der Dinge wollen wir Werkzeuge und Plattformen gezielt für den Mittelstand entwickeln.  

Zugehöriges Drittmittelprojekt: IoT-Pilot (BMEL-gefördert): Rapid Prototyping für den Mittelstand

  • Entwicklung einer IoT-Plattform (Hardware/Software) für mittelständische Unternehmen 
  • Entwicklungswerkzeuge für das Hardware-Software-Co-Design
  • Entwicklungswerkzeuge für Data Engineering

Smart Services & Contracts: Die Entwicklung intelligenter Dienste ist ein zentraler Aspekt der Arbeitsgruppe. Im BMVI-Projekt APEROL entwickeln wir neuartige verteilte und Block-basierte Dienste für die intelligente Mobilität. Exemplarisch werden diese Dienste mit einem Indoor-Post-Dienst in einem autonomen Fahrzeug umgesetzt. Die Forschung beinhaltet hier sowohl die Entwicklung eines geeigneten Front-Ends (App) als auch die Entwicklung geeigneter verteilter Kommunikationsplattformen im Backend, die dezentral und verteilt umgesetzt werden können.

Forschungsfeld 2 - Datenanalyse und Signalverarbeitung 

In diesem Forschungsfeld unterscheiden wir zwischen Algorithmen für echtzeitfähige Systeme, Algorithmen für Big-Data-Anwendungen und modellbasiertes Lernen. Wir beschäftigen uns hier insbesondere mit der Anwendung. In unserer Forschung sehen wir daher immer zuerst das echte System mit den tatsächlichen Daten. Diese müssen zunächst analysiert und verstanden werden. Der Aspekt der Modellbildung ist daher immer noch wichtig. Zukünftige Forschungsansätze sollten sich daher mit der Verschmelzung von datenbasierten und modellbasierten Ansätzen beschäftigen, denn modellbasierte Ansätze erlauben die Integration von Expertenwissen und kommen mit geringeren Datenmengen aus. Im Folgenden sind einige beispielhafte Forschungsprojekte skizziert:

Verteilte Signalverarbeitung für echtzeitfähige Systeme: Viele cyber-physische Systeme sind sogenannte Multi-Agenten-Systeme, d.h. sie bestehen aus mehreren unabhängigen Agenten, die gemeinsam ein größeres Ziel haben. Diese Agenten sind in der Regel nicht über eine zentrale Einheit gesteuert. Typische Beispiele sind die neuen Mikro-Satelliten oder Drohnen-Schwärme. Um z.B. eine Formation zu halten, müssen die Agenten ihre lokale Information (z.B. Zustandsvektor, Abstand) an ihre Nachbarn weitergeben. Die Agenten müssen wiederum über Funk kommunizieren und somit sehr effizient mit den vorhandenen Ressourcen umgehen, also nur dann kommunizieren, wenn es nötig ist. Daher sind hier Lernverfahren interessant, die das Systemverhalten des gesamten Agentensystems lernen und vorhersagen können. Des Weiteren müssen die Algorithmen zur Lokalisierung und zum Lernen und Schätzen der zukünftigen Systemzustände verteilt implementiert werden und extrem effizient sein, da die meisten Agentensysteme nur ein begrenztes Energie-Budget zur Verfügung haben. 

Beispielhafte Publikationen:

D. Hinkelmann, A. Schmeink and G. Dartmann. Distributed learning-based state prediction for multi-agent systems with reduced communication effort Workshop on Sensor Data Fusion and Machine Learning for next Generation of Cyber-Physical-Systems in conjunction with ACM International Conference on Computing Frontiers 2018 

S. Tedik Basaran, G. Karabulut Kurt, G. Oke Günel, A. Schmeink, G. Ascheid and G. Dartmann, The Safety Analysis: Disagreement of Wireless Communication-based Consensus.  IEEE Wireless Communication Letters, 2018 

Machine Learning für low-Cost Hardware: Für viele Anwendungen im Bereich Lagertechnik und Produktionstechnik ist eine kostengünstige zuverlässige Lokalisierung im Indoor-Bereich interessant. Wir untersuchen derzeit Verfahren, die Fingerprints von Schallsignalen ermitteln und somit kontinuierlich eine Position im Raum lernen können. Mit diesen Verfahren könnten sehr kostengünstige Mikrofone für die Ortung eingesetzt werden. Die Mikrofone könnten z.B. in dem von der IoT-Expertengruppe entwickelten IoT-Octopus verbaut sein. Ein weiterer Bereich ist die Entwicklung einer kostengünstigen künstlichen "Nase", die mit Hilfe von trainierten Gassensoren vielfältige Stoffe klassifzieren kann.

Beispielhafte Publikation: 

H. Laux, A. Bytyn, G. Ascheid, A. Schmeink, G. Karabulut Kurt and G. Dartmann. Learning-Based Indoor Localization for Industrial Applications. Workshop on Sensor Data Fusion and Machine Learning for next Generation of Cyber-Physical-Systems in conjunction with ACM International Conference on Computing Frontiers 2018 

M. Dziubany, M. Garling, A. Schmeink, G. Burger, G. Dartmann, S. Naumann, K. Gollmer, Machine Learning Based Artificial Nose on a Low-Cost IoT-Hardware, Chapter in Big Data Analytics for Cyber-Physical Systems, Machine Learning for the Internet of Things, 1st Edition, Elsevier, Paperback ISBN: 9780128166376, Publication date planed July 2019

Big Data Analytics in der Industrie: Neben Hardware und Software ist die Einbindung einer Analytics-Tool-Chain für die Prozessdatenanalyse ein wichtiger Aspekt für Anwendungen mit vielen Sensoren und Daten insbesondere beim Thema Industrie 4.0. Dies beinhaltet z.B. Klassifikation, Regression und logistische Regression von Messdaten. Hierfür sollen Machine-Learning-Konzepte in Software-Blöcken bereitgestellt und in die Hardware-Software-Plattform von F3 integriert werden. Durch die Gateways z.B. in einer Produktion können zusätzliche Daten erfasst werden. Auf Basis dieser Daten können Prozesse optimiert und neue Geschäftsmodelle generiert werden. Zusammen mit der IoT-Expertengruppe haben wir ein Edge-Cloud-System entwickelt, das z.B. lokal in der Produktionshalle positioniert werden kann. Die Prozess-Daten können vor Ort gesammelt und weiterverarbeitet werden. Hierfür müssen Algorithmen entwickelt werden. Neben der Optimierung von Produktionsprozessen ist die Datenanalyse wichtig für eine Anomalie-Erkennung, um IT-Angriffe frühzeitig zu erkennen. Für eine Anomalie-Erkennung bedarf es geeigneter Modelle des Gesamtsystems und einer kontinuierlichen Erfassung aller Systemzustände. 

zugehöriges Drittmittelprojekt: COSY (BMBF-gefördert): Cognitive Tools for Cyber-physical Systems

  • Entwicklung von Algorithmen für Machine Learning für IoT und Industrie 4.0
  • Lokalisierung mit Hilfe von Machine-Learning und IoT
  • Entwicklung einer künstlichen Nase 
  • Entwicklung von Algorithmen für die Systemidentifikation 
  • Daten-basierte Modelle für Umwelt-Sensor-Daten

Big Data Analytics in der Medizintechnik:  In diesem Projekt wollen wir adaptive Modelle für die Diagnose verschiedener Erkrankungen auf der Intensivstation entwickeln. Diese Modelle helfen jungen Medizinern die komplexen Prozesse, wie sie z.B. bei einer Blutvergiftung (Sepsis) vorliegen, besser zu überblicken. Das System soll dazu in der Lage sein anhand von lernfähigen Modellen und aktuellen Messdaten verschiedene Krankheitsverläufe vorherzusagen. Das System erfasst dazu kontinuierlich medizinische Messdaten des Telemedizinsystems in einer großen Datenbank. Auf Basis dieser ständig wachsenden Datenbank können Modelle für bestimmte Krankheitsverläufe trainiert werden. Diese Modelle sollen sowohl für eine große Menge von Patienten gültig, als auch individualisiert für bestimmte Klassen von Patienten optimiert sein. Das Ziel ist die Entwicklung individualisierter Patientenmodelle für intensivmedizinische Krankheitsprozesse.  Als Modelle eigenen sich hier sowohl neuronale Netze als auch stochastische Petri-Netze. 

Beispielhafte Publikation:

P. Vieting, R. C. de Lamare, L. Martin, G. Dartmann and A. Schmeink, An Adaptive Learning Approach to Parameter Estimation for Hybrid Petri Nets in Systems Biology, IEEE Statistical Signal Processing Workshop (SSP), 2018, accepted for publication

zugehöriges Drittmittelprojekt: IMEDALytics (BMBF-gefördert)

  • Machine Learning-Verfahren und neue Algorithmen für medizinische Datenanalyse
  • Entscheidungsunterstützungssysteme
  • Neue stochastische Modelle für medizinische Daten
  • Integration von Expertenwissen

Modellbasierte Ansätze & Digital Twin: Eine große Herausforderung ist das maschinelle Lernen mit geringen Datenmengen (Low-Data-Problem), denn die Erzeugung von Daten zur z.B. zur Erforschung von Medikamenten ist sehr teuer. Aus diesem Grund untersuchen wir modellbasierte Lehrnverfahren in Kombination mit datenbasierten Verfahren für eine computergestützte Medikamenten-Optimierung. Solche Verfahren reduzieren die Anzahl der notwendigen Laborversuche und könnten die Medikamenten-Entwicklung kostengünstiger gestalten. Als Modelle eigenen sich kontinuierliche Petri-Netze, die bereits vielfach für die Modellierung von systembiologischen Prozessen eingesetzt werden.  Hierbei untersuchen wir sowohl Algorithmen, die die Parameter vorgegebener Petri-Netze (Struktur bekannt) lernen, als auch Konzepte, die neben den Parametern die gesamte Struktur dieser Petri-Netze lernen. Im Gegensatz zu neuronalen Netzen sind Modelle auf Basis von Petri-Netzen keine Blackbox-Modelle. Solche  White-Box-Modelle sind in der Medizin akzeptierter und erlauben zudem die Berücksichtigung von Expertenwissen.

Beispielhafte Publikation

E. Zechendorf, P. Vaßen, J. Zhang, A. Hallawa, A. Martincuks, O. Krenkel, G. Müller-Newen, T. Schuerholz, T.-P. Simon, G. Marx, G. Ascheid, A. Schmeink, G. Dartmann, C. Thiemermann and L. Martin. Heparan sulfate induces necroptosis in murine cardiomyocytes – a Medical-In-Silico approach using machine learning,  Frontiers in Immunology, 2018.

Forschungsfeld 3 - Technologie für Verteilte Systeme: 

Low-Cost Hardware: Zusammen mit der IoT-Expertengruppe des nationalen Digital Gipfels haben wir ein generisches IoT-Device entwickelt. Dieses Device zeichnet sich durch geringe Kosten und Flexibilität aus. Ein wichtiger Aspekt dieses Gateways ist die Entwicklung einer generischen Hardware-Schnittstelle zu diversen Komponenten in industriellen Anwendungen. Ein weiterer Aspekt ist die Anbindung zusätzlicher Sensorik. Hier sind funkbasierte Sensoren aufgrund ihrer Flexibilität interessant. Das Device soll auch eine Grundlage für Industrieprojekte sein.

Beispielhafte Publikationen: 

M. Dziubany, R. Machhamer, H. Laux, A. Schmeink, K. Gollmer, G. Burger and G. Dartmann. Machine Learning Based Indoor Localization Using a Representative k-Nearest-Neighbor Classifier on a Low-Cost IoT-Hardware, 26th European Signal Processing Conference (EUSIPCO), 2018

IoT-CERT (sichere Hardware): Zusammen mit der Expertengruppe Internet der Dinge arbeite die Arbeitsgruppe an einem Monitoringssystem für M2M-Cybersicherheit. Das Ziel ist hier die Entwicklung einer zertifizierten IoT-Hardwareplattform, die als SIEM-Sensor (SIEM: Security Information and Event Management) dienen kann. Diese Plattform dient in IoT-Systemen als Honeypot und soll den Daten-Traffic aufzeichnen und für die Analyse und Anomalie-Erkennung weiterleiten.

Hardware-Software-Schnittstellen:  Neben der Hardware ist eine semantische Softwareschnittstelle ein weiterer wichtiger Aspekt dieses Vorhabens. Aufgrund der Diversität verschiedener angeschlossener Komponenten müssen Aspekte der jeweiligen Hardware abstrahiert werden. Selbstlernende Software kann neue Komponenten erlernen und zukünftig Test-Code für die Anpassung der Schnittstellen automatisiert generieren. Diese Werkzeuge aus dem BMEL-Projekt IoT-Pilot sollen diese Skills teilweise aufweisen.

High-Performance Hardware: Eine Herausforderung im Automotivebereich ist die Entwicklung von Machine-Learning-Verfahren für das Autonome Fahren. Die Spannbreite dieser Verfahren ist groß zudem gibt es inzwischen leistungsfähige Hardware-Plattformen, die solche Machine-Learning-Verfahren in Echtzeit umsetzen können. Zur Erreichung der Echtzeitfähigkeit ist die Optimierung dieser Algorithmen elementar. An der RWTH hat Aachen Prof. Dartmann vor der Berufung an die Hochschule Trier das BMBF-Projekt PARIS gewonnen. In dem Projekt werden Parallelisierungverfahren zur Optimierung dieser Algorithmen entwickelt. 

zugehöriges Drittmittelprojekt: APEROL (BMVI-gefördert)

  • Entwicklung von Deep Learning-Verfahren für Autonome Flotten
  • Verteilte KI-Systeme und Implementierung in Hardware

IT-Security: Ohne Gewährleistung von Sicherheit werden cyber-physische Systeme niemals in der Industrie akzeptiert. Ein zukünftiges cyber-physisches System muss mögliche Angriffe mit Hilfe von z.B. Methoden der Data-Analytics selbstständig erkennen können. Funkbasierte Systeme sind aufgrund ihrer Flexibilität für industrielle Anwendungen immer interessanter geworden. Im Verkehr (autonomes Fahren) ist eine Kommunikation zudem nur über Funk möglich. Viele solcher Systeme sind eingebettet und verfügen nicht über komplexe Verschlüsselungsmechanismen. Aufgrund der verteilten Natur des Mediums Funk ist dieses für Angreifer ein einfaches Ziel. Deswegen erforsche ich seit einigen Jahren Konzepte um die IT-Sicherheit bereits in Schicht 1 und 2 zu erreichen. Hier kooperiert die Arbeitsgruppe mit der Kollegin Prof. Gunes Karabulut Kurt der ITU Istanbul

Beispielhafte Publikation:

O. Cepheli, G. Dartmann, G. Karabulut Kurt, and G. Ascheid A Joint Optimization Scheme for Artificial Noise and Transmit Filter for Half and Full Duplex Wireless Cyber Physical Systems. IEEE Transactions on Sustainable Computing, 2017.

Privacy: Auf der anderen Seite können cyber-physische Systeme auch die Privatsphäre von Privatpersonen gefährden. Durch das Internet der Dinge werden Daten von tausenden von Sensoren gesammelt und zusammengefügt. Durch immer leistungsfähigere Machine-Learning-Verfahren ist das Zusammenführen von Daten und das Rückschließen auf Informationen immer leichter geworden. Hier bedarf es neuer Konzepte zur Gewährleistung einer abhörsicheren Kommunikation sowie Konzepte zur Anonymisierung gegenüber sensiblen Personendaten.

Beispielhafte Publikation:

M.  O. Demir, G. Karabulut Kurt, V. Lucken, G. Ascheid, and G. Dartmann. Impact of the communication channel on information theoretical privacy. IEEE International Symposium on Information Theory (ISIT), 2017. 

Prof. Dr.-Ing. Guido Dartmann
Prof. Dr.-Ing. Guido Dartmann
Professor FB Umweltplanung/-technik - FR Informatik

Kontakt

+49 6782 17-1727

Standort

Birkenfeld | Gebäude 9925 | Raum 110

Sprechzeiten

nach Vereinbarung
Matthias Dziubany
Matthias Dziubany, M. Sc.
Drittmittelbeschäftigter

Kontakt

+49 6782 17-1239

Standort

Birkenfeld | Gebäude 9925 | Raum 111
back-to-top nach oben