Composite-Speicher — die richtige Datenbank für jede Aufgabe
DataLake
Ein logischer Data Lake, drei Speicher-Engines. Zeitreihen in InfluxDB 2.x oder TimescaleDB, relationale Daten in PostgreSQL oder MS SQL, unstrukturierte Dateien (Bilder, PDFs, Videos, Berichte) im S3-kompatiblen Objektspeicher wie MinIO. Jede Workload landet dort, wo sie am besten läuft — und Sie fragen alles über die gleiche DataBridge-REST-API ab.
Hauptfunktionen
Was DataLake leistet
Zeitreihen-Engines
InfluxDB 2.x und TimescaleDB für Millionen Punkte pro Sekunde — Kompression, Downsampling, Continuous Aggregates, Hot/Warm/Cold-Retention.
Relationale Engines
PostgreSQL oder Microsoft SQL Server für Geschäftsdaten — Assets, Chargen, Aufträge, Wartungshistorie, Qualitätsergebnisse. Joins, ACID, referenzielle Integrität.
Objektspeicher (S3 / MinIO)
Bilder, PDFs, Videos, Laborberichte, rohe Audit-Logs. S3-kompatible API — on-premise mit MinIO oder in jedes Cloud-Bucket. Versioniert, Lifecycle verwaltet.
Eine API, alle Backends
DataBridge sitzt darüber und stellt eine einheitliche REST-API bereit. Sie lernen keine drei Abfragesprachen — nur eine. Edge-to-Cloud-Replikation offline-first.
So funktioniert es
Einstieg mit DataLake
Vier Schritte von null bis zur Produktion.
Nach Workload routen
FlowMaker und DataBridge wählen automatisch das passende Backend — Zeitreihen nach InfluxDB/Timescale, relationale Daten nach Postgres/MS SQL, Dateien nach MinIO/S3.
Indizieren & komprimieren
Spaltenkompression für Zeitreihen, normalisierte Tabellen für relationale Daten, Content-Hash-Schlüssel für Objektspeicher. 10× kleiner als Rohdaten.
Automatisch tiern
Retention-Policies pro Tag-Gruppe, Hot/Warm/Cold-Tiers, Lifecycle-Regeln auf dem Objektspeicher. Migration zwischen Tiers ohne Ausfallzeit.
Überall abfragen
REST-API, WebSocket, Grafana-Plugin, native Connectors für Power BI und Python. Eine Grammatik, jedes Backend.
Integrationen