Künstliche Intelligenz hat in den vergangenen Jahren Einzug in nahezu alle Bereiche der Industrie gehalten. Das Spektrum reicht von automatisierten Inspektionssystemen über Predictive Maintenance bis hin zu eingebetteten GenAI-Funktionen in Unternehmenssoftware. Parallel zu den Chancen tritt jedoch ein Phänomen zutage, das die Branche zunehmend beschäftigt, nämlich KI-Halluzinationen.
Gemeint sind Ausgaben, die auf den ersten Blick plausibel erscheinen, in Wirklichkeit jedoch falsch, erfunden oder irreführend sind [1]. In Consumer-Anwendungen wie Chatbots oder Übersetzern mag das eine lästige, aber harmlose Erscheinung sein. Insbesondere in industriellen Kontexten, etwa Halbleiterfertigung, Produktion, Qualitätssicherung oder Automatisierung, können Halluzinationen aber zu Fehlentscheidungen, Kosten oder Sicherheitsproblemen führen. Experten warnen daher davor, KI-Systemen unkritisch zu vertrauen [2].
Ursachen und technische Hintergründe
Halluzinationen sind kein neues Phänomen, sie begleiten die Entwicklung von Large Language Models (LLMs) und generativen Systemen seit Jahren. Sprachmodelle erzeugen ihre Antworten auf der Grundlage von Wahrscheinlichkeiten. Sie berechnen die wahrscheinlichste Fortsetzung einer Eingabe, ohne über ein internes Wahrheitsverständnis zu verfügen. Fehlende oder verzerrte Trainingsdaten führen dazu, dass Modelle plausibel wirkende, aber inhaltlich falsche Ergebnisse erzeugen. Untersuchungen zeigen eine Bandbreite von Halluzinationsraten zwischen 3 % und 91 %, abhängig vom Modell und Anwendungsfall [3]. Bei OpenAI lagen die Werte bei 33 % für das Modell o3 und bei 48 % für das Modell o4-mini. Auch Google und DeepSeek meldeten ähnliche Probleme [4]. Vectara, ein Anbieter von Halluzinationsanalysen, sieht das Phänomen als prinzipimmanent: „Sie werden immer halluzinieren, das wird nie verschwinden.“
Marktlage im Segment Large Language Model ((LLM) – Durchschnittliche jährliche Wachstumsrate in % nach Region, 2025–2030
Die Ursachen sind vielfältig. Ein zentrales Element ist die Loss Function, die Modelle nicht auf faktische Korrektheit, sondern auf die Minimierung statistischer Abweichungen trainiert. Hinzu kommt, dass Modelle keine interne Sicherheit besitzen. Sie wissen nicht, ‚was sie wissen', sondern antworten auf alle Anfragen mit derselben Zuversicht. Auch kreative Mechanismen, die für abwechslungsreiche Antworten sorgen, steigern die Wahrscheinlichkeit von Fehlern. Schließlich verstärkt der Mangel an hochwertigen Trainingsdaten das Risiko. Viele Anbieter greifen zunehmend auf synthetische Daten zurück, was den sogenannten Modellkollaps fördert: KI lernt von KI, bis sich Fehler selbst verstärken und die Ergebnisse unbrauchbar werden.
Halluzinationen sind meist unerklärlich – bei uns Menschen und ebenfalls bei der KI
Reale Auswirkungen in der Praxis
In der Halbleiterfertigung treten KI-basierte Systeme unter anderem bei der Wafer-Inspektion auf. Dabei zeigt sich ein hohes Aufkommen an Fehlalarmen. Optische Inspektionsgeräte markieren zahlreiche vermeintliche Defekte, die sich als nicht real herausstellen [5]. Solche halluzinierten Defekte binden Ressourcen in der Nachprüfung und verzögern die Fehleranalyse. Eine Gegenmaßnahme dabei ist die Kombination von fortschrittlicher Elektronenmikroskopie mit Deep-Learning-Algorithmen, um echte Fehler von Phantom-Anomalien zu trennen.
Auch im Schaltungsdesign kann KI halluzinieren. In einem aktuellen Forschungsprojekt zur automatischen Chip-Entwicklung der Princeton University School of Engineering and Applied Science und des Indian Institute of Technology (IIT) generierte die KI Schaltungen, die zwar neuartig waren, jedoch teils unbrauchbar [6]. Zum Beispiel baute das Modell Elemente ein, die in der realen Schaltung nicht funktionierten. Experten berichten, dass solche fehlerhaften ‚Halluzinationen' nur durch menschliche Ingenieure erkannt und korrigiert werden konnten.
Diese Beispiele zeigen, dass KI in der Halbleiterindustrie zwar zu innovativen Lösungen führen kann, jedoch ohne sorgfältige Validierung auch unsinnige oder physikalisch unmögliche Designs vorschlagen kann, was im schlimmsten Fall zu kostspieligen Fehlentwürfen führen würde. Ein Predictive-Maintenance-System, das einen nicht vorhandenen Defekt meldet, verursacht unnötige Stillstände und Kosten. In der 3D-AOI würde eine halluzinierte Lötstellenbewertung entweder versteckte Schwachstellen durchlassen oder unnötige Nacharbeit erzeugen. Thermografie-Systeme könnten Hotspots erfinden oder echte Überhitzungen übersehen. Auch bei autonomen Transportsystemen kann eine falsche Mustererkennung entweder unnötige Stillstände oder gefährliche Fehlentscheidungen auslösen. Noch gravierender sind Fälle, in denen Fehlinterpretationen zu übersehenen Ausfällen führen, etwa in Energieanlagen oder Produktionsanlagen. Ein KI-gestütztes Kamerasystem kann zum Beispiel fehlerfrei produzierte Teile als defekt markieren, obwohl kein Mangel vorliegt [7].
Die Folgen sind unnötige Ausschussquote und Produktionsverzögerungen. Gute Teile werden aussortiert, manuelle Nachprüfungen oder Neuproduktion verursachen Kosten. Typische Ursachen sind etwa Überanpassung des Modells oder wechselnde Umgebungsbedingungen (Beleuchtung, Staub), durch die die KI Muster ‚sieht', die in Wirklichkeit unerheblich sind.
(l.) Die Abbildung der Schaltkreise des Chips im Labor des Studienleiters Kaushik Sengupta in Princeton zeigt (r.) ungewöhnliche Muster
Gegenmaßnahmen
Zwar bauen die Hersteller Gegenmaßnahmen in die Geräte und Software ein, doch wenn die Klassifikationsalgorithmen falsche Muster erkennen, drohen Bauteile durchzuschlüpfen oder unnötige Nacharbeit entsteht. Ähnliches gilt für die Sinter-Pastenprüfung in der Leistungselektronik, wo präzise Algorithmen für die Bewertung von Oberflächenqualität entscheidend sind. Halluzinierende Systeme könnten hier Löcher oder Riefen übersehen und damit die Lebensdauer von IGBTs gefährden.
In der Automobilproduktion wurde beobachtet, dass ein visuelles Prüfsystem eine einwandfreie Autotür aufgrund eines Schattenwurfs als verbeult einstufte [8]. Die Tür wurde vom Band genommen, obwohl sie intakt war. Das ist ein klassischer Fall, wie eine KI-Halluzination (ein ‚Geisterfehler') zu unnötigem Ausschuss und Mehraufwand führte.
Die Risiken sind nicht nur technischer Natur. Kundenservice-Chatbots, die falsche Rückgaberegeln nennen, schädigen die Marke. Im Supply-Chain-Management führen fehlerhafte Prognosen zu Über- oder Unterbeständen. Selbst in der Forschung können halluzinierte Ergebnisse Entwicklungszeiten verlängern und Kosten steigern. Neben unmittelbaren Schäden wie Produktionsstopps oder Sicherheitsvorfällen ist der langfristige Vertrauensverlust eine der größten Gefahren. Ingenieure und Anwender, die wiederholt falsche KI-Ausgaben erleben, beginnen, Systeme zu hinterfragen. Diese Skepsis kann bis in die Führungsebene reichen und Innovationsinitiativen blockieren. Ein einzelner gravierender Fehler kann reichen, um ein ganzes Projekt ins Stocken zu bringen. Reputationsrisiken spielen ebenfalls eine Rolle.
Strategien zur Risikominimierung
Trotz inhärenter Risiken gibt es Wege, Halluzinationen zu kontrollieren. Fachverbände wie der ZVEI und Forschungseinrichtungen wie das Fraunhofer IAIS arbeiten an Methoden zur Absicherung von KI. Letzteres hat mit der Abteilung ‚AI Assurance and Assessments' ein Kompetenzzentrum geschaffen, das Risikobewertung und Prüfverfahren für KI-Anwendungen entwickelt, insbesondere im Hinblick auf den EU AI Act. Unternehmen wie PwC empfehlen ein Responsible-AI-Framework mit drei Schwerpunkten: Auswahl geeigneter Lösungen, Schulung der Mitarbeiter und Implementierung von Mechanismen zur Erkennung von Fehlern.
Technisch bieten sich mehrere Ansätze an. Retrieval-Augmented Generation (RAG) koppelt Modelle an verifizierte Wissensbasen, wodurch Antworten mit Fakten hinterlegt werden. Automated Reasoning nutzt logikbasierte Verfahren, um Ergebnisse zu validieren. Multiagentensysteme können durch Abstimmung mehrerer spezialisierter Modelle stabilere Ergebnisse liefern. Physikalisch informierte neuronale Netze (PINNs) begrenzen den Lösungsraum auf physikalisch plausible Antworten und reduzieren so Fehlinterpretationen in naturgesetzlich dominierten Anwendungsfeldern wie Thermik oder Materialverhalten. Parallel gewinnen Observability-Tools an Bedeutung, die Ausgaben in Echtzeit überwachen, Abweichungen erkennen und so Fehler verhindern, bevor sie den Nutzer erreichen.
Organisatorisch gehören strenge Datenqualitätsprozesse, Domain-spezifische Trainingsdaten und kontinuierliches Monitoring zu den Grundvoraussetzungen. Menschliche Kontrolle bleibt unverzichtbar, insbesondere in sicherheitskritischen Bereichen. Best Practices umfassen zudem die Einrichtung klarer Leitlinien für KI-Einsatz, umfassende Tests vor Einführung sowie Transparenz und Schulung der Mitarbeiter. PwC rät zu einer Risikoliste bei der Auswahl von Use Cases, um den potenziellen Schaden von Halluzinationen in die Priorisierung einzubeziehen [8].
Spannungsfeld zwischen Risiko und Potenzial
Die Debatte um Halluzinationen ist nicht eindimensional. Während sie in der Industrie als Risiko gelten, können sie in anderen Kontexten auch Chancen eröffnen. Kreative Branchen nutzen gezielt das ‚Out-of-the-box'-Denken von Modellen, um neue Ideen zu generieren. In der Forschung entstehen durch unerwartete Vorschläge Ansätze für neuartige Proteinstrukturen oder Sensorikkonzepte. Auch im Design kann die Unvorhersehbarkeit von Halluzinationen einen Mehrwert darstellen. Entscheidend ist, ob der Anwendungsfall Präzision oder Kreativität verlangt.
Diagramm eines binären Klassifikators, der eine Probenreihe in positive und negative Werte unterteilt
- Falsch-Positive:
× im grünen Bereich - Falsch-Negative:
Ο im roten Bereich - Treffgenauigkeit (Precision):
Anteil der Ο von allen Werten (× + Ο) im grünen Bereich - Überprüfung (Recall)/Sensitivität:
Anteil der Ο im grünen Bereich von allen Ο insgesamt - Spezifität:
Anteil von × im roten Bereich von allen × insgesamt
Ausblick
Experten gehen davon aus, dass Halluzinationen nicht verschwinden werden. Vielmehr verändern sie sich mit den Modellen und Anwendungsfeldern. Mit steigender Komplexität und Multimodalität können bestimmte Fehler reduziert werden, zugleich entstehen neue. Entscheidend wird sein, wie Unternehmen mit diesem inhärenten Verhalten umgehen. In hochsensiblen Umgebungen ist Präzision ohne Kompromiss erforderlich. In weniger kritischen Feldern können kontrollierte Halluzinationen als kreatives Werkzeug dienen.
Für die Industrie steht fest: Ohne robuste Daten, deterministische Kontrollmechanismen und klare Governance hat KI in sicherheitskritischen Prozessen keinen Platz. Mit der richtigen Kombination aus Technik, Organisation und Verantwortung lässt sich das Risiko jedoch auf ein akzeptables Maß senken und das Potenzial der Technologie bleibt nutzbar.
Referenzen
[1] www.iese.fraunhofer.de/blog/halluzinationen-generative-ki-llm (Abruf: 22.09.2025).
[2] ethz.ch/de/news-und-veranstaltungen/eth-news/news/2024/06/ki-in-der-schweizer-tech-branche-realitaet-hinkt-hype-hinterher.html (Abruf: 22.09.2025).
[3] Mikaël Chelli, Jules Descamps, Vincent Lavoué, Christophe Trojani, Michel Azar, Marcel Deckert, Jean-Luc Raynier, Gilles Clowez, Pascal Boileau, Caroline Ruetsch-Chelli, ‚Hallucination Rates and Reference Accuracy of ChatGPT and Bard for Systematic Reviews: Comparative Analysis', J Med Internet Res., 22. Mai 2024, doi: 10.2196/53164 (Abruf: 22.09.2025).
[4] futurism.com/ai-industry-problem-smarter-hallucinating (Abruf: 22.09.2025).
[5] www.appliedmaterials.com/us/en/newsroom/perspectives/separating-the-signal-from-the-noise--combining-advanced-imaging.html (Abruf: 22.09.2025).
[6] engineering.princeton.edu/news/2025/01/06/ai-slashes-cost-and-time-chip-design-not-all (Abruf: 22.09.2025).
[7] www.unitxlabs.com/resources/false-positive-machine-vision-system-inspection-errors-impact (Abruf: 22.09.2025).
[8] www.pwc.com/us/en/tech-effect/ai-analytics/ai-hallucinations.html (Abruf: 22.09.2025).