Tiroler Berglandschaft
Qualität27. März 20267 min

Qualitätsprüfung mit Computer Vision: Was in der Praxis funktioniert

Qualitätskontrolle mit Computer Vision klingt vielversprechend, hat aber Tücken. Vier Use Cases, ehrliche Limitierungen und was man wirklich braucht, um in der Fertigung automatisch zu prüfen.

Qualitätskontrolle Computer Vision - das Thema kommt in fast jedem Gespräch mit Fertigungsbetrieben auf. Und das aus gutem Grund: Visuelle Prüfaufgaben sind repetitiv, ermüdend und fehleranfällig, wenn ein Mensch acht Stunden am Stück Teile begutachten muss. Die Fehlerrate steigt mit jeder Stunde, besonders bei monotonen Aufgaben.

Aber zwischen der Idee und einem funktionierenden System liegen einige Hürden, über die selten gesprochen wird. In diesem Beitrag beschreibe ich vier konkrete Use Cases für Bildverarbeitung Qualitätsprüfung, erkläre was man an Hardware und Setup wirklich braucht, und sage ehrlich, wo Computer Vision an seine Grenzen stößt.

Was Qualitätsprüfung mit Computer Vision in der Praxis bedeutet

Im Kern geht es darum, eine Kamera auf ein Bauteil zu richten, ein Bild aufzunehmen und dieses Bild automatisch auszuwerten. Klingt einfach. Ist es manchmal auch - aber die Details entscheiden.

Eine automatische Qualitätsprüfung Fertigung besteht typischerweise aus drei Komponenten: einer Kamera mit passendem Objektiv, einer kontrollierten Beleuchtung und einem Rechner, der das Bild auswertet. Die Auswertung kann regelbasiert sein (klassische Bildverarbeitung mit definierten Schwellwerten) oder KI-basiert (ein trainiertes Modell, das Gut von Schlecht unterscheidet).

In der Praxis sehe ich oft, dass der KI-basierte Ansatz dort Sinn macht, wo Defekte variabel sind - also nicht immer gleich aussehen. Ein Kratzer kann dünn oder breit sein, gerade oder gebogen. Ein regelbasierter Ansatz braucht für jede Variante eine eigene Regel. Ein trainiertes Modell lernt das Muster aus Beispielen.

Use Case 1: Oberflächeninspektion

KI Oberflächeninspektion ist wahrscheinlich der häufigste Einstiegspunkt. Es geht um die Erkennung von Kratzern, Dellen, Verfärbungen, Einschlüssen oder anderen optischen Defekten auf der Bauteiloberfläche.

Wie das funktioniert: Eine Kamera nimmt ein Bild der Oberfläche auf. Das KI-Modell vergleicht dieses Bild mit seinem trainierten Wissen darüber, wie eine gute Oberfläche aussieht, und markiert Abweichungen.

Was einfach klingt, hat einen entscheidenden Engpass: die Beleuchtung. Ich kann das nicht genug betonen. Die Beleuchtung ist bei Oberflächeninspektionen wichtiger als die Kamera und wichtiger als das KI-Modell. Ein Kratzer, der unter Streiflicht deutlich sichtbar ist, verschwindet unter diffuser Beleuchtung komplett. Umgekehrt erzeugt Streiflicht auf einer leicht strukturierten Oberfläche Schatten, die wie Defekte aussehen.

In der Praxis bedeutet das: Bevor ich überhaupt an ein KI-Modell denke, teste ich verschiedene Beleuchtungsszenarien. Ringlicht, Dombeleuchtung, Streiflicht, Durchlicht - je nach Material und Defekttyp. Dieser Schritt dauert manchmal länger als das eigentliche Modelltraining.

Für metallische Oberflächen, wie sie in der DACH-Fertigungsindustrie häufig vorkommen, sind reflektierende Materialien eine besondere Herausforderung. Eine polierte Aluminiumoberfläche spiegelt die Lichtquelle direkt in die Kamera, was das Bild unbrauchbar macht. Hier brauche ich polarisierte Beleuchtung oder spezielle Diffusoren, und selbst dann ist das Ergebnis nicht immer perfekt.

Use Case 2: Vollständigkeits- und Montageprüfung

Der zweite große Anwendungsfall: Prüfen, ob alle Teile vorhanden und korrekt montiert sind. Das betrifft zum Beispiel Baugruppen, bei denen Schrauben, Clips, Dichtungen oder Stecker an definierten Positionen sitzen müssen.

Technisch gesehen ist das oft einfacher als Oberflächeninspektion, weil die Frage binär ist: Teil vorhanden oder nicht. Die Kamera nimmt ein Bild der Baugruppe auf, und das Modell prüft jede relevante Position.

Die Herausforderung kommt mit Varianten. Wenn ein Hersteller zwanzig Produktvarianten auf derselben Linie fertigt und jede Variante eine andere Bestückung hat, muss das System wissen, welche Variante gerade geprüft wird. Das erfordert entweder einen Datenaustausch mit dem MES oder eine automatische Variantenerkennung. In der Praxis läuft das oft über einen Barcode oder einen digitalen Trigger von der SPS.

Ich sehe hier immer wieder denselben Fehler: Unternehmen wollen sofort alle Varianten abdecken. Mein Rat ist, mit der häufigsten Variante zu starten und das System schrittweise zu erweitern. Ein System, das eine Variante zuverlässig prüft, ist wertvoller als eines, das zwanzig Varianten halb prüft.

Use Case 3: Maßhaltigkeit und Vermessung

Computer Vision kann auch für dimensionale Prüfungen eingesetzt werden - also zum Messen von Längen, Abständen, Winkeln oder Radien direkt aus dem Kamerabild.

Hier muss ich ehrlich sein: Das funktioniert gut für relative Messungen und für Toleranzen im Bereich von Zehntelmillimetern. Für Mikrometer-Genauigkeit oder komplexe 3D-Geometrien ersetzt ein Kamerasystem kein Koordinatenmessgerät (KMG).

Der Vorteil von kamerabasierter Vermessung liegt in der Geschwindigkeit und Integration. Inline, also direkt in der Produktionslinie, kann ich jedes Teil prüfen statt nur Stichproben. Wenn ein Maß sich langsam verschiebt - was auf Werkzeugverschleiß hindeutet - sehe ich den Trend frühzeitig und kann reagieren, bevor Ausschuss entsteht.

Offline-Messungen mit dedizierten Messsystemen bleiben dort unverzichtbar, wo höchste Präzision oder komplexe Geometrien gefragt sind. Computer Vision ersetzt das KMG nicht, aber es ergänzt es: hundert Prozent Inline-Prüfung mit moderater Genauigkeit plus Stichproben am KMG mit hoher Genauigkeit.

Use Case 4: Dokumentation und Rückverfolgbarkeit

Dieser Use Case wird oft unterschätzt, ist aber in vielen Branchen enorm wertvoll. Jedes produzierte Teil wird fotografiert und das Bild wird mit einer eindeutigen Seriennummer oder Chargennummer verknüpft.

Wenn ein Kunde sechs Monate später reklamiert, kann ich das Bild vom Produktionszeitpunkt aufrufen und prüfen, ob der Defekt schon bei der Auslieferung vorhanden war. Für Automotive-Zulieferer im DACH-Raum, die unter enormem Dokumentationsdruck stehen, ist das ein starkes Argument.

Technisch ist das der einfachste der vier Use Cases. Eine Kamera, ein Trigger-Signal, eine Datenbank. Die Herausforderung liegt eher in der Datenmenge - wer jeden Tag zehntausend Teile fotografiert, braucht ein durchdachtes Speicherkonzept und eine klare Löschstrategie.

Hardware-Realität: Was man wirklich braucht

Ein typisches Setup für Bildverarbeitung Qualitätsprüfung besteht aus:

  • Industriekamera: Flächenkamera oder Zeilenkamera, je nach Anwendung. Auflösung zwischen zwei und zwanzig Megapixeln. Für die meisten Anwendungen reicht eine Kamera im mittleren Preissegment.
  • Objektiv: Passend zur Arbeitsabstand und Bildfeld. Hier zu sparen rächt sich - ein schlechtes Objektiv macht jede gute Kamera schlechter.
  • Beleuchtung: Wie oben beschrieben der kritischste Faktor. LED-Beleuchtungen mit definierter Geometrie und stabiler Helligkeit.
  • Edge-PC oder Industrie-PC: Für die Bildauswertung vor Ort. Ein moderner Edge-PC mit GPU kann die meisten Vision-Modelle in Echtzeit ausführen.
  • Mechanische Integration: Halterungen, Abschirmungen gegen Fremdlicht, eventuell ein Gehäuseverbau. Dieser Teil wird in Angeboten oft vergessen, kostet aber Zeit und Geld.

Die Integration in die bestehende Linie ist oft der aufwändigste Teil. Wo wird die Kamera montiert? Wie wird das Trigger-Signal erzeugt? Wie kommuniziert das Ergebnis mit der SPS? Diese Fragen klingen banal, binden aber schnell mehrere Tage Arbeit.

Ehrliche Limitierungen

Computer Vision in der Qualitätskontrolle hat klare Grenzen. Diese zu kennen spart Enttäuschung und Geld:

  • Komplexe 3D-Geometrien: Eine 2D-Kamera sieht nur, was sie sieht. Hinterschneidungen, Bohrungstiefen oder Innengeometrien bleiben unsichtbar. 3D-Vision-Systeme helfen teilweise, sind aber deutlich teurer und komplexer.
  • Variable Beleuchtung: Wenn die Umgebungsbeleuchtung schwankt - durch Tageslicht, wechselnde Hallenbeleuchtung oder Reflexionen - leidet die Bildqualität. Kontrollierte, abgeschirmte Beleuchtung ist Pflicht.
  • Transparente und stark reflektierende Materialien: Glas, poliertes Metall, Folien - diese Materialien sind für Kamerasysteme schwierig. Es funktioniert, aber der Aufwand für Beleuchtung und Bildvorverarbeitung ist deutlich höher.
  • Seltene Defekte: Wenn ein Defekttyp nur einmal pro zehntausend Teile auftritt, fehlen Trainingsbilder. Anomalie-Erkennung kann helfen, ist aber weniger zuverlässig als überwachtes Lernen mit vielen Beispielen.
  • Verschmutzung und Verschleiß: Kameras und Beleuchtungen in Produktionsumgebungen verschmutzen. Kühlschmierstoffe, Staub, Vibrationen - all das erfordert regelmäßige Wartung, die eingeplant werden muss.

Wie man anfängt

Mein Rat für Fertigungsbetriebe im DACH-Raum, die über automatische Qualitätsprüfung Fertigung nachdenken:

  • Einen Prüfpunkt auswählen: Nicht das ganze Werk auf einmal. Eine Station, ein Defekttyp, ein klares Erfolgskriterium.
  • Beleuchtung zuerst: Bevor über KI-Modelle gesprochen wird, die Beleuchtungssituation klaeren. Ein gutes Bild mit der richtigen Beleuchtung ist die halbe Miete.
  • Trainingsbilder sammeln: Mindestens einige hundert Bilder von Gutteilen und - soweit vorhanden - von Defekten. Je mehr Variabilität in den Bildern, desto robuster das spätere Modell.
  • Klein starten, dann skalieren: Ein funktionierender Proof of Concept an einer Station liefert die Argumente für den nächsten Schritt.

Computer Vision in der Qualitätsprüfung ist kein Wundermittel. Aber für die richtigen Anwendungsfälle - repetitive visuelle Prüfungen mit kontrollierten Bedingungen - ist es eines der wirksamsten Werkzeuge, das Fertigungsbetrieben aktuell zur Verfügung steht. Wer realistisch an die Sache herangeht und mit einem fokussierten Pilotprojekt startet, kann innerhalb weniger Wochen belastbare Ergebnisse erzielen.