Tiroler Berglandschaft
Technologie10. März 20267 min

Edge Computing vs Cloud: Wo sollte KI in der Produktion laufen?

Edge oder Cloud? Die Antwort ist selten schwarz-weiss. Ein praxisnaher Vergleich fuer produzierende Unternehmen in Oesterreich und dem DACH-Raum.

Die Frage hoere ich in fast jedem Erstgespraech: Soll unsere KI lokal in der Fabrik laufen oder in der Cloud? Die ehrliche Antwort: Es kommt darauf an. Aber es gibt klare Kriterien, die die Entscheidung einfacher machen. In diesem Beitrag schaue ich mir beide Ansaetze an - Edge Computing Produktion und Cloud - und zeige, warum ich in den meisten Faellen einen hybriden Weg empfehle.

Die Debatte: KI lokal vs Cloud

Wenn ein produzierendes Unternehmen KI einfuehren will, steht frueh eine Infrastruktur-Entscheidung an. Laeuft die Inferenz - also die eigentliche Auswertung durch das KI-Modell - direkt an der Maschine? Oder werden Bilder und Sensordaten an einen Cloud-Server geschickt, der das Ergebnis zurueckliefert?

Beide Wege haben ihre Berechtigung. Aber die Anforderungen in der Fertigung sind oft anders als in einem typischen Software-Startup. Taktzeiten, Datenschutz und Netzwerkstabilitaet spielen eine zentrale Rolle.

Was Edge Computing in der Praxis bedeutet

Edge AI Fertigung heisst konkret: Ein Industrie-PC oder ein kompaktes Inferenzgeraet sitzt direkt im Schaltschrank oder an der Fertigungslinie. Kamerabilder werden lokal aufgenommen, das KI-Modell wertet sie in Millisekunden aus, und das Ergebnis geht direkt an die SPS oder das MES-System.

Es gibt kein Hin- und Herschicken von Daten ueber das Internet. Die gesamte Verarbeitung passiert vor Ort - on-premise, im eigenen Netzwerk.

Vorteile von Edge Computing in der Produktion

  • Latenz: Bei Echtzeit-Inspektion zaehlen Millisekunden. Wenn ein Werkstueck mit hoher Geschwindigkeit am Kamerasystem vorbeifaehrt, muss die Auswertung in wenigen Millisekunden abgeschlossen sein. Ein Roundtrip zur Cloud dauert selbst bei guter Anbindung deutlich laenger und ist nicht deterministisch.
  • Datensicherheit: Die Bilddaten bleiben im Werk. Das ist ein zentrales Argument, besonders in Oesterreich und im DACH-Raum, wo Datensicherheit Produktion Oesterreich ein echtes Thema ist. Viele Unternehmen duerfen Produktionsbilder schlicht nicht an externe Server senden - aus Compliance-Gruenden oder weil der Endkunde es vertraglich ausschliesst.
  • DSGVO-Konformitaet: Wenn keine personenbezogenen Daten das Werksgelaende verlassen, vereinfacht das die DSGVO-Bewertung erheblich. Das spart Zeit und juristische Kosten.
  • Unabhaengigkeit vom Internet: Produktionshallen haben nicht immer stabiles WLAN oder eine zuverlaessige Internetverbindung. Edge-Systeme funktionieren komplett offline. Kein Internetzugang bedeutet keinen Ausfall der KI.
  • Deterministische Reaktionszeiten: Ein lokales System liefert konstante Antwortzeiten. Das ist fuer die Integration in bestehende Automatisierungsablaeufe entscheidend.

Wann Cloud sinnvoll ist

Die Cloud hat ihre Staerken - aber sie liegen woanders als bei der Echtzeit-Inferenz:

  • Dashboards und Reporting: Aggregierte Produktionsdaten, Trendanalysen und Qualitaets-Dashboards lassen sich in der Cloud komfortabel bereitstellen. Mehrere Standorte koennen so zentral verglichen werden.
  • Langzeit-Analytik: Wenn ich ueber Monate hinweg Fehlermuster analysieren will, brauche ich Speicher und Rechenkapazitaet, die ueber das hinausgeht, was ein einzelner Edge-PC sinnvoll leisten kann.
  • Modelltraining: Das Training von KI-Modellen - insbesondere Deep-Learning-Modellen - ist rechenintensiv und profitiert stark von GPU-Clustern, wie sie Cloud-Anbieter bereitstellen. Einmal trainierte Modelle werden dann auf die Edge-Hardware deployt.
  • Skalierung ueber Standorte: Wenn ein Unternehmen das gleiche Modell an zehn Standorten ausrollen will, kann ein zentrales Cloud-Management die Verteilung und Versionierung vereinfachen.

Mein Ansatz: Inferenz auf Edge, Training in der Cloud

In meinen Projekten setze ich auf ein klares Prinzip: Die Inferenz - also das, was in Echtzeit entscheidet - laeuft lokal auf Edge-Hardware. Das Training und die optionale Langzeit-Analytik koennen in der Cloud stattfinden, muessen aber nicht.

Dieser Ansatz ist pragmatisch, weil er die Staerken beider Welten nutzt:

  • Schnelle, zuverlaessige Auswertung direkt an der Linie
  • Keine Abhaengigkeit von Internetverbindungen im laufenden Betrieb
  • Produktionsdaten bleiben im Werk
  • Bei Bedarf kann ein Cloud-Backend fuer Analytics ergaenzt werden

Wichtig: Die Cloud-Komponente ist optional. Viele Kunden starten bewusst ohne Cloud und fuegen sie spaeter hinzu, wenn der Bedarf da ist.

Hardware-Realitaet: Was ein industrielles Edge-Setup aussieht

Edge Computing in der Produktion heisst nicht Consumer-Hardware im Serverraum. Ein typisches Setup umfasst:

  • Inferenz-Hardware: NVIDIA Jetson-Module (z.B. Jetson Orin) oder industrielle IPCs mit integrierter GPU. Diese Geraete sind fuer den Dauerbetrieb in industriellen Umgebungen ausgelegt - erweiterter Temperaturbereich, vibrationsfest, DIN-Schienen-Montage.
  • Industriekameras: GigE Vision oder USB3 Vision Kameras, oft mit spezifischer Beleuchtung fuer die jeweilige Inspektionsaufgabe.
  • Netzwerk: Lokales Ethernet reicht aus. Kein spezielles Cloud-Gateway noetig.
  • Software-Stack: Optimierte Inferenz-Frameworks wie NVIDIA TensorRT oder ONNX Runtime, die das Maximum aus der verfuegbaren Hardware herausholen.

Der Formfaktor ist kompakt. Ein komplettes Inspektionssystem passt in einen Standard-Schaltschrank und laesst sich in bestehende Linien integrieren, ohne grosse Umbauten.

Kostenvergleich: Edge-Hardware vs Cloud-Abo

Ich nenne hier bewusst keine konkreten Preise, weil sie stark vom Anwendungsfall abhaengen. Aber die Kostenstruktur unterscheidet sich grundlegend:

Edge-Hardware:

  • Einmalige Anschaffungskosten fuer Hardware (Industrie-PC, Kamera, Beleuchtung)
  • Die Gesamtkosten fuer ein einzelnes Inspektionssystem liegen typischerweise im niedrigen bis mittleren fuenfstelligen Bereich
  • Laufende Kosten sind minimal: Strom, gelegentliche Wartung
  • Keine monatlichen Gebuehren fuer Rechenleistung

Cloud-Loesung:

  • Geringere Anfangsinvestition
  • Laufende monatliche Kosten fuer Rechenzeit, Speicher und Datentransfer
  • Kosten skalieren mit dem Datenvolumen und der Anzahl der Auswertungen
  • Ueber mehrere Jahre koennen die kumulierten Cloud-Kosten die einmalige Edge-Investition uebersteigen

Die Erfahrung zeigt: Fuer permanente, hochfrequente Inferenz an einer Fertigungslinie ist Edge-Hardware langfristig oft kostenguenstiger. Fuer sporadische Analysen oder das Modelltraining ist Cloud flexibler.

Der hybride Ansatz: Der pragmatische Mittelweg

Die beste Loesung ist selten rein Edge oder rein Cloud. Der pragmatische Mittelweg sieht so aus:

  • Edge fuer alles Zeitkritische: Inspektion, Sortierung, Echtzeit-Entscheidungen
  • Cloud fuer alles Analytische: Dashboards, Trendanalysen, Modelltraining
  • Klare Datentrennung: Rohdaten bleiben lokal, nur aggregierte Kennzahlen gehen in die Cloud
  • Schrittweise Erweiterung: Start mit Edge-only, Cloud-Anbindung bei Bedarf

Dieser Ansatz gibt produzierenden Unternehmen die Kontrolle ueber ihre Daten, ohne auf die Vorteile moderner Cloud-Analytik verzichten zu muessen.

Fazit

KI lokal vs Cloud ist keine Entweder-oder-Frage. Fuer die Echtzeitauswertung in der Produktion fuehrt an Edge Computing kaum ein Weg vorbei. Fuer Training und Analytik kann die Cloud sinnvoll ergaenzen. Ich helfe dabei, den richtigen Mix zu finden - abgestimmt auf die konkreten Anforderungen, die IT-Landschaft und die Datenschutzanforderungen des jeweiligen Unternehmens.