Zurück zu Insights
Platform10. Februar 2026·6 Min. Lesezeit

Von 40 verschiedenen Datenformaten zu einer einheitlichen Wahrheit

Aiko Jansen

Aiko Jansen

CTO

Share:
Von 40 verschiedenen Datenformaten zu einer einheitlichen Wahrheit

Betreten Sie einen Shopfloor, der seit mehr als zwei Jahrzehnten in Betrieb ist, und Sie finden eine Geschichtsstunde der industriellen Automatisierung. Eine Siemens S7-300 aus den späten Neunzigern, die über MPI kommuniziert. Ein Fanuc-Robotercontroller, der sein eigenes proprietäres Protokoll spricht. Ein modernes Beckhoff-System auf EtherCAT. Ein MES auf einer Oracle-Datenbank. Ein Historian, der über OPC DA sammelt. Ein Qualitätssystem, das jede Schicht CSV-Dateien exportiert.

Das ist nicht ungewöhnlich. Das ist normal. Ein mittelständisches Fertigungswerk arbeitet typischerweise mit 30 bis 50 verschiedenen Datenformaten und Protokollen, angesammelt über Jahre inkrementeller Ausrüstungskäufe, Anbieterauswahlen und Systemupgrades. Jedes System war bei der Installation sinnvoll. Zusammen bilden sie eine Datenlandschaft, die sich jedem Versuch einer einheitlichen Analyse widersetzt.

Warum Datenfragmentierung KI bereits vor dem Start killt

KI-Modelle interessieren sich nicht für Protokolle. Sie brauchen strukturierte, zeitlich ausgerichtete, semantisch konsistente Daten. Aber wenn ein Vibrationssignal von einem OPC-UA-Server in Millisekundenauflösung kommt, Temperaturdaten über MQTT in Fünf-Sekunden-Intervallen eintreffen und Qualitätsergebnisse in einer relationalen Datenbank mit Chargen-Granularität protokolliert werden, ist der Vorverarbeitungsaufwand enorm. Allein drei Signale in dasselbe Zeitreihenformat zu bringen, kann Wochen an Engineering kosten.

Werksdaten fließen aus verschiedenen Quellen in eine einheitliche Datenschicht
Dutzende Protokolle und Datenformate laufen in einer einzigen, normalisierten Datenschicht zusammen, die allen Anwendungen zugänglich ist

Die Fragmentierung erzeugt sich verstärkende Probleme:

  • Semantische Inkonsistenz — dieselbe physikalische Messung in verschiedenen Systemen unterschiedlich benannt („spindle_temp“ vs. „T_SP1“ vs. „temperature_main_spindle“)
  • Zeitliche Fehlausrichtung — Systeme auf nicht synchronisierten Uhren, was Ereigniskorrelation unzuverlässig macht
  • Zugriffskomplexität — jede Datenquelle erfordert andere Zugangsdaten, Treiber und Abfragemethoden
  • Schema-Drift — Firmware-Updates und Konfigurationsänderungen verändern Datenstrukturen ohne Vorwarnung

Jedes KI-Projekt, das diese Realitäten ignoriert, verbringt seine ersten Monate im Kampf gegen die Dateninfrastruktur statt im Training von Modellen. Die technischen Schulden akkumulieren sich unbemerkt, bis sie zum dominierenden Kostenfaktor jeder Initiative werden.

Die einheitliche Wahrheit aufbauen

Eine einheitliche Datenschicht bedeutet nicht, bestehende Systeme zu ersetzen. Sie bedeutet, eine Abstraktionsschicht darüber zu legen, die Daten aus jeder Quelle in ein konsistentes Modell normalisiert, ausrichtet und kontextualisiert. Bei RockQ nimmt diese Schicht Daten von OPC UA, MQTT, Modbus, S7, REST-APIs, Datenbanken und dateibasierten Quellen auf — alles über Konfiguration, nicht Code. Jedes Signal erhält einen kanonischen Namen, eine Einheit, einen auf eine gemeinsame Uhr ausgerichteten Zeitstempel und Prozesskontext, der es aussagekräftig macht.

Linienübergreifendes Analytics-Dashboard mit vereinheitlichten Produktionsdaten
Sobald Daten vereinheitlicht sind, werden linien- und werksübergreifende Analysen ohne zusätzlichen Integrationsaufwand möglich

Der Effekt ist sofort spürbar. Wenn ein Prozessingenieur Spindellastmuster über drei verschiedene CNC-Maschinen von drei verschiedenen Herstellern vergleichen will, ist die Abfrage identisch. Wenn ein KI-Modell Vibrations-, Temperatur- und Werkzeugverschleißdaten für einen kombinierten Gesundheits-Score benötigt, liegen alle drei Signale bereits im selben Format, derselben Auflösung, derselben Zeitbasis vor. Der Ingenieur konzentriert sich auf die Analyse, nicht auf die Leitungen.

Von der einzelnen Maschine zur werksübergreifenden Intelligenz

Die wahre Stärke einer einheitlichen Datenschicht zeigt sich in der Skalierung. Wenn jede Maschine über jede Linie hinweg dieselbe Datensprache spricht, werden Analysen, die vorher unmöglich waren, selbstverständlich. OEE über Werke hinweg vergleichen. Energieeffizienz nach Produkttyp benchmarken. Herausfinden, warum dasselbe Teil auf Linie 3 die Qualitätsprüfung nicht besteht, aber auf Linie 7 schon. Diese Erkenntnisse erfordern Daten, die nicht nur zugänglich, sondern vergleichbar sind — und genau das liefert Normalisierung.

Hersteller, die in eine einheitliche Datenschicht investieren, lösen nicht nur den heutigen KI-Anwendungsfall. Sie bauen das Fundament für jeden zukünftigen. Jede neue angeschlossene Maschine, jedes neue normalisierte Signal fügt einem Asset Wert hinzu, das mit der Zeit immer wertvoller wird. Die Alternative — individuelle Pipelines für jedes Projekt zu bauen — ist eine Strategie, die abnehmende Erträge garantiert.

Gefällt Ihnen dieser Artikel?

Erhalten Sie Insights wie diesen jede Woche direkt in Ihr Postfach. Kein Spam, nur relevante KI-Themen für die Fertigung.

Insights abonnieren
#Data Integration#Platform#Manufacturing#Interoperability
Aiko Jansen

Aiko Jansen

CTO, RockQ Technologies

Aiko treibt die technische Vision hinter der RockQ-Plattform voran. Als CTO entwirft er die No-Code-Infrastruktur, mit der Hersteller Produktionsanwendungen erstellen, bereitstellen und skalieren können — als Brücke zwischen IT-Systemen und Shopfloor.

Von 40 verschiedenen Datenformaten zu einer einheitlichen Wahrheit | RockQ Technologies