SMD‑Bestückung mit KI: Optimierte SPI‑/AOI‑Workflows für höhere Fertigungsqualität

Visualisierung der SMD Bestückung mit KI; Leiterplatte, Mikroskop, Text

Die Qualität der SMD-Bestückung (Surface Mount Device) entscheidet über Leistungsfähigkeit, Zuverlässigkeit und Langlebigkeit elektronischer Systeme. Zentrale Bausteine der Qualitätssicherung in der Elektronikfertigung sind Verfahren wie die Lötpasteninspektion (SPI) und die automatisierte optische Inspektion (AOI). Obwohl beide Prozesse präzise Ergebnisse liefern, arbeiten sie bislang weitgehend getrennt voneinander. So werden Fehler – etwa im Lotpastendruck – oft zu spät erkannt und nicht prozessübergreifend interpretiert.

In seiner Masterarbeit untersucht Karim Shousha von der Arbeitsgruppe »Photonic and Plasmonic Systems« am Fraunhofer IZM, wie sich durch eine KI-gestützte Analyse von SPI- und AOI-Daten ein zusammenhängender Inspektionsworkflow realisieren lässt, der Defekte in der Leiterplattenbestückung nicht nur erkennt, sondern auch nachvollziehbar erklärt.

Dafür prüfte er verschiedene KI-Modelle – von klassischer Bilderkennung über Large Language Models (LLMs) bis hin zu multimodalen Lösungen – hinsichtlich ihrer Eignung für eine prozessübergreifende Fehleranalyse. Seine Untersuchungen führten zu klaren Aussagen zur praktischen Umsetzbarkeit und zur passenden Modellauswahl.

Im Interview mit RealIZM gibt er Einblicke in seine Ergebnisse und zeigt auf, welches Potenzial KI-gestützte Inspektionsverfahren für die SMD-Bestückung bieten könnten.

RAG-gestützte Pipeline für SPI- und AOI-Daten

Fertigungsfehler im Lötprozess – z. B. Brückenbildungen, Hohlräume oder Bauteilverschiebungen – zählen zu den häufigsten Ursachen für Ausfälle in der Elektronikfertigung.

Tortendiagramm zur Verteilung der Fertigungsfehler in der Elektronikproduktion: Lötprozess 71 %, Bauteilverschiebungen 10 %, Brückenbildungen 7 %, andere Fehler 7 %, falsche Komponente 3 %, Komponentenfehler 2 %.

Zirka 70 Prozent der Fertigungsfehler entstehen im Lötprozess. | © Fraunhofer IZM | Biemans: 5D solder paste inspection-merits beyond 3D technology. In: Global SMT & Packaging (2011), S. 8.

Mit dem Fokus auf der Lötpasteninspektion (SPI – Solder Paste Inspection) und der automatisierten optischen Inspektion (AOI – Automated Optical Inspection) hat Karim Shousha eine KI-gestützte Pipelinearchitektur entworfen, die beide Prüfverfahren zu einem integrierten Workflow vereint. Dadurch lässt sich die Qualität und Zuverlässigkeit bestückter Leiterplatten steigern und ihre Lebensdauer erhöhen.

Die zentrale Erkenntnis seiner Forschungsarbeit: Der vielversprechendste Ansatz für die Inspektion bei der industriellen Bestückung von Leiterplatten ist weder ein klassisches Bildverarbeitungsmodell noch ein großes Cloud-basiertes KI-System, sondern ein kompaktes, lokal betreibbares KI-Modell, das mithilfe von Retrieval-Augmented Generation (RAG) gezielt um domänenspezifisches Wissen erweitert wird.

Den Kern der Pipeline bildet das Vision-Language-Model (VLM) Qwen3-VL-8B, das im Herbst 2025 veröffentlicht wurde. Als multimodales KI-Modell kann es hochaufgelöste Bilddaten gemeinsam mit textlichen Informationen verarbeiten und interpretieren. Es erkennt elektronische Bauteile, analysiert deren Position auf der Leiterplatte und Fehler präzise.

Durch die RAG-Erweiterung kann das System zudem vor der Analyse auf IPC-Normen, Gerber-Daten und prozessspezifische Metadaten zurückgreifen. So lassen sich industrielle Qualitätsanforderungen zuverlässig bewerten – ein Vorteil, der mit rein datengetriebenen Modellen allein nicht erreichbar wäre.

Deep Learning als Basis: Stärken und Schwächen

Die heutige KI-Landschaft ist von einer Vielzahl an Modellen geprägt, die sich im Wesentlichen entlang zweier Dimensionen unterscheiden: ihren Fähigkeiten (z. B. Detektion, Verstehen und Schlussfolgern) sowie ihrer Größe – dem Umfang der verwendeten Trainingsdaten und Parameter. »Um einen geeigneten Ansatz für die automatisierte Erkennung und Klassifizierung von PCB-Komponenten zu bestimmen, war es daher wichtig, verschiedene KI-Modellklassen systematisch zu untersuchen«, erläutert Shousha seinen Ansatz.

Im Fokus standen Deep-Learning-Modelle: Sie bilden eine Unterkategorie des maschinellen Lernens und basieren auf mehrschichtigen künstlichen neuronalen Netzen, die Muster direkt aus großen Datensätzen lernen, statt fest programmierten Regeln zu folgen. Deep Learning bildet die Grundlage vieler moderner KI-Verfahren, etwa in der Bild- und Spracherkennung oder der Textverarbeitung.

Gerade bei den für das Modelltraining benötigten Datensätzen liegt die zentrale Herausforderung. Karim Shousha betont: »Die Aussagekraft von Deep-Learning-Systemen ist unmittelbar an die verwendeten Trainings- und Testdatensätze gebunden. Da diese häufig proprietär und damit intransparent sind, kann in spezialisierten Domänen wie der Elektronikherstellung weder von einer vollständigen Datenabdeckung noch von einer uneingeschränkt nachvollziehbaren Validierung der Testergebnisse ausgegangen werden.«

Modellvergleich: YOLO, Zero-Shot und Großmodelle

Der mehrstufige Testprozess umfasste verschiedene Deep-Learning-Modelle – von spezialisierteren, aufgabenspezifischen Ansätzen bis hin zu allgemeineren und leistungsfähigeren Architekturen. Den Anfang bildeten YOLO-basierte Modelle (»You Only Look Once«), die durch ihre visuelle Objekterkennung eine effiziente Lokalisierung von Bauteilen ermöglichen. Ihre Schwäche liegt jedoch in der Abhängigkeit von umfangreichen, annotierten Datensätzen.

Kreisdiagramm des Vergleichs von vier getesteten KI-Modellen; Linien in grün, gelb, rot und blau

Vergleich von vier getesteten KI-Modellen | © Fraunhofer IZM

Säulendiagram der Trefferquote und Genauigkeit der einzelnen getesteten KI-Modelle, Säulen in rot und blau (rot = Genuigkeit; blau = Trefferquote)

Trefferquote und Genauigkeit der einzelnen getesteten KI-Modelle | © Fraunhofer IZM

Shousha untersuchte im nächsten Schritt Zero-Shot-Vision-Language-Modelle. Diese verknüpfen visuelle Inhalte mit textuellen Beschreibungen und erkennen Objekte ohne explizites task-spezifisches Training. Obwohl sie auf Vision-Language-Architekturen basieren, die Bild- und Textinformationen gemeinsam verarbeiten, stoßen sie an Grenzen, wenn die Daten im Vortraining die Zieldomäne – etwa den Elektronik- bzw. PCB-Bereich – nicht ausreichend abdecken. Abschließend testete Shousha großskalige Modelle – Large Language Models (LLMs) und Visual Language Models (VLMs).

Große versus kleine KI-Modelle: Leistung, Kosten und Datenschutz

Die Größe eines KI-Modells wird über die Anzahl seiner Parameter bestimmt – jener trainierbaren Gewichte, mit denen Muster in Daten erlernt werden. Kleine KI-Modelle verfügen über rund 1 bis 10 Milliarden Parameter. Während große KI-Modelle mit bis zu 500 Milliarden Parametern und mehr arbeiten. LLMs und VLMs dieser Größenordnung bieten eine hohe Leistungsfähigkeit im Erkennen und Schlussfolgern. Die Kehrseite der Medaille besteht darin, dass sie entsprechend mehr Rechenleistung fordern und damit zu einem höheren Ressourcenverbrauch sowie höheren Betriebs- und Interferenzkosten führen.

Darüber hinaus spielen Aspekte der Datensicherheit und Zuverlässigkeit eine wichtige Rolle: Große KI-Modelle werden über Clouds bereitgestellt. Dies erschwert den Umgang mit sensiblen Produktionsdaten und stellt zusätzliche Sicherheitsanforderungen. Auch sogenannte Halluzinationen stellen ein Problem dar: Mit einem meist hohen Maß an Überzeugung können KI-Modelle falsche oder nicht überprüfbare Aussagen generieren. Oft liegt das an Faktoren wie mehrdeutigen Vorgaben oder fehlenden Datengrundlagen.

Vor diesem Hintergrund scheinen für die Lohnbestücker lokal betriebene, abgeschlossene KI-Systeme am geeignetsten zu sein, wie Karim Shousha erklärt: »Der Schutz sensibler Fertigungsdaten hat eine hohe Priorität. Viele Unternehmen bevorzugen daher geschlossene Netzwerke. Zudem sind solche Lösungen auch wirtschaftlich vorteilhaft, da der Betrieb großer KI-Modelle, die mit Milliarden von Parametern trainiert wurden, mit erheblichen Kosten verbunden ist und sich in der Praxis kaum effizient skalieren lässt.«

Allerdings bringt auch der Einsatz kleinerer KI-Modelle Einschränkungen mit sich: Sie sind einfacher zu implementieren und kostengünstiger im Betrieb. Im Vergleich zu großen KI-Modellen weisen sie jedoch eine häufig geringere Leistungsfähigkeit auf.

Optimierter Inspektions-Workflow durch RAG

Der notwendige Kompromiss zwischen Datensouveränität und Systemperformance, der bei der Nutzung kleinerer KI-Modelle mit begrenzter Kapazität und fehlendem Domänenwissen sichtbar wird, kann durch die Implementierung einer RAG umgangen werden. Die Tests des bestehenden Prüf-Workflows zeigten, dass sich so ein Mittelweg zwischen hoher Modell-Performance und praktischer Einsetzbarkeit realisieren lässt. So können auch kompakte VLMs wie z. B. Qwen3-VL-8B so erweitert werden, dass sie bei der Leiterplatteninspektion nahezu die gleiche Leistungsfähigkeit deutlich größerer KI-Modelle erreichen. Dieser Ansatz ist für die SMD-Bestückung besonders vielversprechend und lässt sich problemlos in bestehende SPI-/AOI-Linien integrieren.

Screenshot einer vereinfachten Darstellung des Workflows von der Bildverarbeitung bis zur Verarbeitung des KI-Modells

Vereinfachte Darstellung: Workflow von der Bildverarbeitung bis zur Verarbeitung des KI-Modells | © Fraunhofer IZM

»Der zentrale Vorteil dieser Pipeline«, erklärt Karim Shousha, »ist, dass sie Defekte nicht nur erkennt, sondern auch deren Ursachen erklärt. Die KI-gestützte Datenauswertung zeigt auf, in welchem Prozessschritt die Defekte auftreten und eröffnet die Möglichkeit, Just-in-Time-Korrekturen im Fertigungsprozess vorzunehmen.« Langfristig könnten Elektronik-Fertigungsdienstleister so von einer Echtzeitüberwachung in einer Live-Produktionsumgebung profitieren, in der Fehler sofort nach ihrem Auftreten erkannt und behoben werden können.

»Ursachenerkennung statt nur Detektion: Eine KI‑gestützte Datenauswertung […] eröffnet die Möglichkeit, Just‑in‑Time‑Korrekturen im Fertigungsprozess vorzunehmen.«

Karim Shousha, Studentischer Mitarbeiter, Fraunhofer IZM

Testergebnisse: Fehlererkennung im Labor

Der Workflow wurde an der Prototypen-Linie der Start-a-Factory am Fraunhofer IZM getestet. Dafür kamen zehn Test-Leiterplatten (60 mm × 60 mm) mit gezielt eingebauten Platzierungs- und Druckfehlern zum Einsatz, um eine repräsentative Bandbreite an Fehlerkategorien abzudecken. Das RAG-gestützte VLM-Modell detektierte die Defekte und lieferte eine strukturierte Ausgabe der Fehleranalyse – von visuellen Details über die Position und den Fehlertyp.

Aufnahme einer Leiterplatte mit eingebrachten Druckfehlern

Test-Leiterplatte mit eingebrachten Druckfehlern – fehlende Komponente und Fehlausrichtung | © Fraunhofer IZM

Aufnahme einer Test-Leiterplatte mit Markierungen nach Fehlererkennung; Beschriftung rot: Missing Component. Rotation Error, Misalignment

Test-Leiterplatte: Fehlererkennung – Claude Sonnet 4.5 | © Fraunhofer IZM

Ausblick: Potenzial für Produktion und Automatisierung

Die KI-gestützte Inspektion geht über die rein regelbasierte Fehlerdetektion klassischer Inspektionssysteme hinaus. Sie erweitert diese um Flexibilität, Interpretierbarkeit und Anpassbarkeit an neue Leiterplattenlayouts. Die strukturierte JSON-Ausgabe des Modells lässt sich in die Maschinenkommunikation integrieren. So können Fertigungsprozesse wie etwa die Bestückung von PCBs und der Lotpastendruck automatisiert auf identifizierte Fehler reagieren und diese korrigieren. KI-gestützte Workflows lassen sich prinzipiell für jede Fertigungslinie anpassen.

Einsatz in der photonischen Gehäusefertigung

Dass die Forschungsarbeit in der Gruppe »Photonic and Plasmonic Systems« entstanden ist, liegt daran, dass sie zentrale Herausforderungen adressiert, die sowohl in der Mikroelektronik als auch in der photonischen Fertigung auftreten. Photonik- und Plasmoniksysteme erfordern, ähnlich wie elektronische Baugruppen, hochpräzise Herstellungs- und Montageprozesse, bei denen kleinste Abweichungen in der Bauteilplatzierung oder -klassifikation die Funktionalität erheblich beeinträchtigen können. »Der KI-Workflow für Leiterplatten lässt sich auch in der photonischen Gehäusefertigung umsetzen«, erklärt Karim Shousha.


Autorenbild Karim Shousha, blauer Pullover, Laborhintergrund

Karim Shousha

Karim Shousha hat 2010 den Bachelor of Science (B.Sc.) in Ingenieurwissenschaften (Materialwissenschaft) an der German University in Kairo absolviert. Den Master of Science (M.Sc.) in Mechatronik erwarb er an der German International University (GIU) in Berlin. Die Masterarbeit führte er am Fraunhofer IZM durch.

Seine Forschungsinteressen umfassen industrielle Künstliche Intelligenz, die Integration von KI in Fertigungs- und Inspektionsprozesse, Retrieval-Augmented Generation (RAG) für wissensbasierte Entscheidungsunterstützung sowie KI-gestützte Entscheidungsfindung für autonome Fahrzeuge.

Katja Arnhold, Fraunhofer IZM

Katja Arnhold

Katja Arnhold ist redaktionell verantwortlich für den RealIZM-Blog des Fraunhofer IZM.

Katja hat über 20 Jahre Erfahrung in der Unternehmenskommunikation und im B2B-Marketing. Sie arbeitete u.a. für zwei private Wetterdienstleister und den Weltmarktführer für alkoholische Premium-Getränke. Sie studierte Kommunikations- und Medienwissenschaften, Betriebswirtschaftslehre und Psychologie an der Universität Leipzig, hat einen Masterabschluss und ist Mitglied im Leipziger Public Relations Studentenverband (LPRS).

Profilbild Luisa Roth | © Fraunhofer IZM | Enrica Theuke

Luisa Roth

Luisa Roth unterstützt das RealIZM Blogteam als Studentische Mitarbeiterin. Derzeit studiert sie im Master des Kooperationsstudiengangs Europäische Medienwissenschaft an der Universität Potsdam und der Fachhochschule Potsdam.

Add comment