Stockage composite — la bonne base pour chaque usage
DataLake
Un seul data lake logique, trois moteurs de stockage. Les séries temporelles dans InfluxDB 2.x ou TimescaleDB, les données relationnelles dans PostgreSQL ou MS SQL, les fichiers non structurés (images, PDF, vidéos, rapports) dans du stockage objet compatible S3 comme MinIO. Chaque charge de travail atterrit là où elle performe le mieux — et vous les interrogez toutes via la même API REST DataBridge.
Fonctionnalités clés
Ce que fait DataLake
Moteurs time-series
InfluxDB 2.x et TimescaleDB pour des millions de points par seconde — compression, downsampling, agrégats continus, politiques de rétention hot/warm/cold.
Moteurs relationnels
PostgreSQL ou Microsoft SQL Server pour les données métier — assets, lots, commandes, historique de maintenance, résultats qualité. Jointures, ACID, intégrité référentielle.
Stockage objet (S3 / MinIO)
Images, PDF, vidéos, rapports de laboratoire, journaux d'audit bruts. API compatible S3 — gardez-les on-premise avec MinIO ou poussez vers n'importe quel bucket cloud. Versionnés, lifecycle géré.
Une API, tous les backends
DataBridge s'assoit au-dessus et expose une API REST unique. Vous n'apprenez pas trois langages — vous en apprenez un. Réplication edge-to-cloud offline-first.
Comment ça marche
Démarrer avec DataLake
Quatre étapes de zéro à la production.
Router par charge
FlowMaker et DataBridge sélectionnent automatiquement le bon backend — time-series vers InfluxDB/Timescale, relationnel vers Postgres/MS SQL, fichiers vers MinIO/S3.
Indexer & compresser
Compression colonnes pour les time-series, tables normalisées pour le relationnel, clés content-hash pour l'objet. 10× plus petit que le brut.
Hiérarchiser automatiquement
Politiques de rétention par groupe de tags, niveaux hot/warm/cold, règles lifecycle sur le stockage objet. Migration transparente entre niveaux.
Requêter partout
API REST, WebSocket, plugin Grafana, connecteurs natifs pour Power BI et Python. Une grammaire, n'importe quel backend.
Intégrations