ValueCloud Managed MLOps Plattform
Entwickeln Sie individuelle KI-Modelle aus Ihren eigenen Daten und
stellen diese sicher und zuverlässig für den Produktiv-Betrieb bereit.
ValueCloud Managed MLOps Plattform
Entwickeln Sie individuelle KI-Modelle aus Ihren eigenen Daten und stellen diese sicher und zuverlässig für den Produktiv-Betrieb bereit.
Ein verwalteter und Datenschutz-konformer Cloud Dienst für individuelle KI-Modelle
Sie erhalten eine vollständig verwaltete, leistungsfähige und hochgradig kosteneffiziente MLOps Plattform, bei der sämtliche Daten ausschließlich in Europa gespeichert und verarbeitet werden.

Funktionsblöcke der ValueCloud MLOps Plattform
Feature Store
(optional)
Container Registry
(optional)
Ende-zu-Ende Abdeckung des MLOps Lifecycles
Data Pipelines & Feature Store
Für das Training von KI- und Machine Learning-Modellen müssen oftmals große Mengen an Daten aus verschiedenen Quellen aufbereitet und zusammengeführt werden. Über skalierbare Data Pipelines können Sie Ihre Daten aus verschiedenen Quellsystemen zielgenau transferieren und vorverarbeiten, sowie deren Integrität sicherstellen. Durch einen Feature Store werden die Daten in einem einheitlichen Format vorgehalten und für das Training und die Ausführung von KI-Modellen zugänglich gemacht.


Model Training & Experiment Tracking
Die Analyse großer Mengen von Daten und das anschließende Training von komplexen KI- und Machine Learning-Modellen führen in der Regel zu anspruchsvollen experimentellen Workloads, welche in mehreren Iterationen angepasst und auf unterschiedlichen Datensätzen verprobt werden. Unsere Plattform ermöglicht Data Scientists in gängigen Umgebungen mit Notebooks systematisch zu arbeiten und horizontal skalieren zu können, ohne sich selbst mit der Komplexität verteilter Infrastrukturen beschäftigen zu müssen. Die Verläufe verschiedener Experimente, sowie die zugehörigen Datensätze und Ergebnisse werden laufend erfasst und aufbereitet. Data Scientists können sich somit maximal produktiv auf die Datenanalyse und das Training von Modellen fokussieren.
Model Registry, Deployment & Serving
Erfolgreich trainierte Modelle werden in einer Model Registry persistiert und verwaltet. Über Deployment Pipelines werden diese in produktionsreife Services integriert und auf einer skalierbaren Infrastruktur ausgebracht. Ab diesem Zeitpunkt sind die KI-Modelle einsatzbereit und können auf echten Daten im Produktivbetrieb eingesetzt werden. Die Ausführung kann, abhängig vom Anwendungsfall, etwa via API, Data Streaming oder periodisch erfolgen.


Monitoring, Performance Tracking & Retraining
Beim Produktivbetrieb von Diensten mit Machine Learning- und KI-Modellen ist ein kontinuierliches Verfügbarkeits-Monitoring der Services erforderlich. Zusätzlich sollte die Performance der KI-Modelle stetig überwacht werden, da sie aus verschiedenen Gründen abnehmen kann. Eine häufige Ursache liegt darin, dass sich die Datengrundlage in der realen Welt vor allem bei längeren Zeithorizonten verändern kann und somit die ursprünglichen Trainingsdaten, auf denen das Modell angelernt wurde, nicht mehr aktuell sind. Daher ist es ratsam, das Verhalten von KI-Modellen zu erfassen und ein Nachlassen der Leistung erkennen zu können. In einem solchen Fall kann über spezielle Retraining Pipelines ein erneutes Anlernen des Modells auf frischen Daten automatisiert erfolgen, um die Performance wiederherzustellen.
ValueCloud MLOps Plattform — High Level Architektur

State-of-the-art Features für maximale Performance, Leistungsfähigkeit und Sicherheit
Notebooks
Horizontal skalierbar
RBAC & SSO-Support
Tensorboards
Backup
Autoscaling-ready
Experiment Tracking
Strikte Mandanten-Trennung
High Availability-ready
Das Pricing korreliert mit der Größe und Ressourcen-Ausstattung der Umgebung
Die Preise berechnen sich maßgeblich nach Anzahl und der Ressourcen-Ausstattung der benötigten VMs, welche wiederum von der Komplexität des Model Trainings abhängig ist. Die nachstehende Preistabelle zeigt Endpreise für unterschiedliche Beispiel-Konfigurationen.
Starter-Paket
Für einfache Modelle-
4 VMs à 4 vCPU / 16GB RAM
-
1.000 GB SSD Storage
-
> 97% Verfügbarkeit
-
IaaS: Hetzner Cloud
-
Mandanten-Trennung: dedizierter Cluster
-
All-inclusive Pricing
Business-Paket
Für mittelkomplexe Modelle-
6 VMs à 4 vCPU / 16GB RAM
-
1.000 GB SSD Storage
-
> 99,7% Verfügbarkeit
-
IaaS: Hetzner Cloud
-
Mandanten-Trennung: dedizierter Cluster
-
All-inclusive Pricing
Enterprise-Paket
Für komplexere Modelle-
6 VMs à 8 vCPU / 32GB RAM
-
1.000 GB SSD Storage
-
> 99,7% Verfügbarkeit
-
IaaS: Hetzner Cloud
-
Mandanten-Trennung: dedizierter Cluster
-
All-inclusive Pricing
Buchen Sie bitte einen unverbindlichen Beratungs-Termin, damit wir für Ihren Anwendungsfall den konkreten Ressourcen-Bedarf bestimmen können.
Vertraulichkeit und Sicherheit werden groß geschrieben
Hohe Basis-Standards
Strikte Mandaten-Trennung über dedizierte Cluster
Alle Daten werden ausschließlich in der EU gespeichert und verarbeitet
Optional: physische Mandaten-Trennung
Optional: Daten-Verschlüsselung mit eigenem Key
Optional: privates Netzwerk




Ihre direkte Nachricht an uns
ValueCloud GmbH
- +49-631-3435-8150
- [email protected]
Office Kaiserslautern:
IT Campus
Europaallee 10
D-67657 Kaiserslautern
Office Mannheim:
Business Center Mannheim
Q7 24
D-68161 Mannheim
Termin zur kostenlosen Erstberatung buchen