
Edge Computing vs Cloud: Wo sollte KI in der Produktion laufen?
Edge oder Cloud? Die Antwort ist selten schwarz-weiß. Ein praxisnaher Vergleich für produzierende Unternehmen in Österreich und dem DACH-Raum.
Die Frage höre ich in fast jedem Erstgespräch: Soll unsere KI lokal in der Fabrik laufen oder in der Cloud? Die ehrliche Antwort: Es kommt darauf an. Aber es gibt klare Kriterien, die die Entscheidung einfacher machen. In diesem Beitrag schaue ich mir beide Ansätze an - Edge Computing Produktion und Cloud - und zeige, warum ich in den meisten Fällen einen hybriden Weg empfehle.
Die Debatte: KI lokal vs Cloud
Wenn ein produzierendes Unternehmen KI einführen will, steht früh eine Infrastruktur-Entscheidung an. Läuft die Inferenz - also die eigentliche Auswertung durch das KI-Modell - direkt an der Maschine? Oder werden Bilder und Sensordaten an einen Cloud-Server geschickt, der das Ergebnis zurückliefert?
Beide Wege haben ihre Berechtigung. Aber die Anforderungen in der Fertigung sind oft anders als in einem typischen Software-Startup. Taktzeiten, Datenschutz und Netzwerkstabilität spielen eine zentrale Rolle.
Was Edge Computing in der Praxis bedeutet
Edge AI Fertigung heißt konkret: Ein Industrie-PC oder ein kompaktes Inferenzgerät sitzt direkt im Schaltschrank oder an der Fertigungslinie. Kamerabilder werden lokal aufgenommen, das KI-Modell wertet sie in Millisekunden aus, und das Ergebnis geht direkt an die SPS oder das MES-System.
Es gibt kein Hin- und Herschicken von Daten über das Internet. Die gesamte Verarbeitung passiert vor Ort - on-premise, im eigenen Netzwerk.
Vorteile von Edge Computing in der Produktion
- Latenz: Bei Echtzeit-Inspektion zählen Millisekunden. Wenn ein Werkstück mit hoher Geschwindigkeit am Kamerasystem vorbeifährt, muss die Auswertung in wenigen Millisekunden abgeschlossen sein. Ein Roundtrip zur Cloud dauert selbst bei guter Anbindung deutlich länger und ist nicht deterministisch.
- Datensicherheit: Die Bilddaten bleiben im Werk. Das ist ein zentrales Argument, besonders in Österreich und im DACH-Raum, wo Datensicherheit Produktion Österreich ein echtes Thema ist. Viele Unternehmen dürfen Produktionsbilder schlicht nicht an externe Server senden - aus Compliance-Gründen oder weil der Endkunde es vertraglich ausschließt.
- DSGVO-Konformität: Wenn keine personenbezogenen Daten das Werksgelände verlassen, vereinfacht das die DSGVO-Bewertung erheblich. Das spart Zeit und juristische Kosten.
- Unabhängigkeit vom Internet: Produktionshallen haben nicht immer stabiles WLAN oder eine zuverlässige Internetverbindung. Edge-Systeme funktionieren komplett offline. Kein Internetzugang bedeutet keinen Ausfall der KI.
- Deterministische Reaktionszeiten: Ein lokales System liefert konstante Antwortzeiten. Das ist für die Integration in bestehende Automatisierungsabläufe entscheidend.
Wann Cloud sinnvoll ist
Die Cloud hat ihre Stärken - aber sie liegen woanders als bei der Echtzeit-Inferenz:
- Dashboards und Reporting: Aggregierte Produktionsdaten, Trendanalysen und Qualitäts-Dashboards lassen sich in der Cloud komfortabel bereitstellen. Mehrere Standorte können so zentral verglichen werden.
- Langzeit-Analytik: Wenn ich über Monate hinweg Fehlermuster analysieren will, brauche ich Speicher und Rechenkapazität, die über das hinausgeht, was ein einzelner Edge-PC sinnvoll leisten kann.
- Modelltraining: Das Training von KI-Modellen - insbesondere Deep-Learning-Modellen - ist rechenintensiv und profitiert stark von GPU-Clustern, wie sie Cloud-Anbieter bereitstellen. Einmal trainierte Modelle werden dann auf die Edge-Hardware deployt.
- Skalierung über Standorte: Wenn ein Unternehmen das gleiche Modell an zehn Standorten ausrollen will, kann ein zentrales Cloud-Management die Verteilung und Versionierung vereinfachen.
Mein Ansatz: Inferenz auf Edge, Training in der Cloud
In meinen Projekten setze ich auf ein klares Prinzip: Die Inferenz - also das, was in Echtzeit entscheidet - läuft lokal auf Edge-Hardware. Das Training und die optionale Langzeit-Analytik können in der Cloud stattfinden, müssen aber nicht.
Dieser Ansatz ist pragmatisch, weil er die Stärken beider Welten nutzt:
- Schnelle, zuverlässige Auswertung direkt an der Linie
- Keine Abhängigkeit von Internetverbindungen im laufenden Betrieb
- Produktionsdaten bleiben im Werk
- Bei Bedarf kann ein Cloud-Backend für Analytics ergänzt werden
Wichtig: Die Cloud-Komponente ist optional. Viele Kunden starten bewusst ohne Cloud und fügen sie später hinzu, wenn der Bedarf da ist.
Hardware-Realität: Was ein industrielles Edge-Setup aussieht
Edge Computing in der Produktion heißt nicht Consumer-Hardware im Serverraum. Ein typisches Setup umfasst:
- Inferenz-Hardware: NVIDIA Jetson-Module (z.B. Jetson Orin) oder industrielle IPCs mit integrierter GPU. Diese Geräte sind für den Dauerbetrieb in industriellen Umgebungen ausgelegt - erweiterter Temperaturbereich, vibrationsfest, DIN-Schienen-Montage.
- Industriekameras: GigE Vision oder USB3 Vision Kameras, oft mit spezifischer Beleuchtung für die jeweilige Inspektionsaufgabe.
- Netzwerk: Lokales Ethernet reicht aus. Kein spezielles Cloud-Gateway nötig.
- Software-Stack: Optimierte Inferenz-Frameworks wie NVIDIA TensorRT oder ONNX Runtime, die das Maximum aus der verfügbaren Hardware herausholen.
Der Formfaktor ist kompakt. Ein komplettes Inspektionssystem passt in einen Standard-Schaltschrank und lässt sich in bestehende Linien integrieren, ohne große Umbauten.
Kostenvergleich: Edge-Hardware vs Cloud-Abo
Ich nenne hier bewusst keine konkreten Preise, weil sie stark vom Anwendungsfall abhängen. Aber die Kostenstruktur unterscheidet sich grundlegend:
Edge-Hardware:
- Einmalige Anschaffungskosten für Hardware (Industrie-PC, Kamera, Beleuchtung)
- Die Gesamtkosten für ein einzelnes Inspektionssystem liegen typischerweise im niedrigen bis mittleren fünfstelligen Bereich
- Laufende Kosten sind minimal: Strom, gelegentliche Wartung
- Keine monatlichen Gebühren für Rechenleistung
Cloud-Lösung:
- Geringere Anfangsinvestition
- Laufende monatliche Kosten für Rechenzeit, Speicher und Datentransfer
- Kosten skalieren mit dem Datenvolumen und der Anzahl der Auswertungen
- Über mehrere Jahre können die kumulierten Cloud-Kosten die einmalige Edge-Investition übersteigen
Die Erfahrung zeigt: Für permanente, hochfrequente Inferenz an einer Fertigungslinie ist Edge-Hardware langfristig oft kostengünstiger. Für sporadische Analysen oder das Modelltraining ist Cloud flexibler.
Der hybride Ansatz: Der pragmatische Mittelweg
Die beste Lösung ist selten rein Edge oder rein Cloud. Der pragmatische Mittelweg sieht so aus:
- Edge für alles Zeitkritische: Inspektion, Sortierung, Echtzeit-Entscheidungen
- Cloud für alles Analytische: Dashboards, Trendanalysen, Modelltraining
- Klare Datentrennung: Rohdaten bleiben lokal, nur aggregierte Kennzahlen gehen in die Cloud
- Schrittweise Erweiterung: Start mit Edge-only, Cloud-Anbindung bei Bedarf
Dieser Ansatz gibt produzierenden Unternehmen die Kontrolle über ihre Daten, ohne auf die Vorteile moderner Cloud-Analytik verzichten zu müssen.
Fazit
KI lokal vs Cloud ist keine Entweder-oder-Frage. Für die Echtzeitauswertung in der Produktion führt an Edge Computing kaum ein Weg vorbei. Für Training und Analytik kann die Cloud sinnvoll ergänzen. Ich helfe dabei, den richtigen Mix zu finden - abgestimmt auf die konkreten Anforderungen, die IT-Landschaft und die Datenschutzanforderungen des jeweiligen Unternehmens.