DeepSeek R1 ist derzeit das dominierende Thema in der KI-Branche und übertrifft in der Aufmerksamkeit selbst Modelle wie Claude[*] und Perplexity[**]. Als Konkurrent zu OpenAI und Google Gemini überzeugt es nicht nur durch Resultate, sondern insbesondere als Open-Source-Variante, die lokal ausgeführt werden kann. Dabei stellt sich zentral die Frage, ob es sich um einen Gamechanger oder lediglich um einen weiteren Baustein in der technischen Evolution handelt.
Einen Artikel über KI für ein gedrucktes Magazin zu schreiben, fühlt sich an, als würde man ein 100-Meter-Rennen mit einer Eisenkugel am Fuß bestreiten. Noch während die Sätze getippt werden, altern sie im Zeitraffer, weil sich der Markt schneller verändert, als ein Goldfisch seine Aufmerksamkeit verliert. Deshalb liegt der Fokus der folgenden Seiten auf der jüngsten Vergangenheit und einem Blick in die nicht allzu ferne Zukunft.
Der KI-Markt verändert sich schneller, als ein Goldfisch seine Aufmerksamkeit verliert.
Erdbeben aus dem Fernen Osten
Die Veröffentlichung von DeepSeek R1 sorgte für Aufruhr. Das Sprachmodell ist kostenlos nutzbar und leistet in etwa so viel wie die teuren Abo-Modelle von OpenAI. Damit nicht genug: Das chinesische Startup verkündete, nur einen Bruchteil der Ressourcen der Konkurrenz zu benötigen. Zudem gibt es mehrere Varianten als Open-Source auf GitHub. Letzteres gab es schon mit zahlreichen anderen Modellen, aber noch nie auf einem solchen Niveau.
DeepSeek R1 ist als Frontalangriff zu werten. Auf Google, OpenAI, Microsoft und Nvidia, also einige der größten US-Techfirmen unserer Zeit. Dass die chinesische KI nicht alle Funktionen – etwa Bildgenerierung – der Konkurrenz beinhaltet, ist für die meisten Nutzer derzeit nebensächlich.
KI-Unterbau
DeepSeek betreibt eine der größten KI-Infrastrukturen weltweit, die rund 50.000 Hopper-GPUs – darunter 10.000 H100/H800 – umfasst und zusätzlich Bestellungen für H20-Chips beinhaltet. Die Gesamtinvestitionen belaufen sich auf 2,54 Mrd. $. Zwar werden häufig Trainingskosten von 6 Mio. $ für das V3-Modell genannt, doch beziehen sich diese ausschließlich auf die GPU-Nutzung; die tatsächlichen Gesamtkosten für Forschung, Architektur und Infrastruktur liegen vielmehr bei über 500 Mio. $.
Das V3-Modell überzeugt durch den Einsatz effizienterer Algorithmen, die jährlich viermal weniger Rechenressourcen benötigen und damit GPT-4o übertreffen. Mit synthetischen Daten und Reinforcement Learning erreicht das R1-Modell eine vergleichbare Leistung wie OpenAIs o1, wobei Benchmarks die Unterschiede im Ressourcenverbrauch außer Acht lassen. Eine bedeutende Architekturinnovation ist der Einsatz von Multi-Head Latent Attention (MLA), der zur Entwicklung effizienterer Modelle geführt hat, die bereits von westlichen Laboren adaptiert werden.
Ein Lied über Zensur
Die zwei Hauptargumente des Westens gegen die chinesische KI lauten ‚Datenschutz' und ‚Zensur'. Die Vorwürfe von OpenAI, DeepSeek hätte sich mit ChatGPT trainiert und somit Daten ‚gestohlen', können wir aufgrund zahlreicher Klagen und Anschuldigungen gegenüber OpenAI infolge Urheberrechtsverletzungen an dieser Stelle vernachlässigen.
Datenschutz ist ein großes Thema. Aus europäischer Sicht ist allerdings schwer zu beurteilen, ob es nun besser ist, dass die Daten in den USA oder dass sie in China landen. Und wer sensible Daten verarbeiten möchte, kann DeepSeek immerhin lokal ausführen, was einen Fortschritt darstellt.
Für den beruflichen Einsatz spielt Zensur – bedingt durch gesetzliche Vorgaben, ethische Überlegungen, den Firmenruf und das Alignment – eine eher untergeordnete Rolle. Wer ChatGPT nach heiklen Themen der US-Politik fragt, bekommt vergleichbare Antworten wie bei DeepSeek zum Thema China oder Taiwan – womöglich mit weniger Propaganda.
Offener Quellcode
Open-Source ist ein wichtiges Fundament der Softwareentwicklung. Ohne hätten wir kein Linux und somit kein Android, keine alternativen Browser, Office- oder E-Mail-Programme. Im KI-Bereich hat sich gezeigt, dass Open-Source-Lösungen auf Dauer bessere Ergebnisse liefern können als kommerzielle Produkte, etwa Stockfish bei Schach. Welchen Einfluss DeepSeek haben wird, bleibt abzuwarten. Es ist zwar Open-Source, aber die Community hat keinen Einfluss auf die Trainingsdaten aus China. Gewiss könnten Enthusiasten eigene KIs trainieren, dies würde indes in den meisten Fällen die Kapazitäten von Hobbyentwicklern und Kleinunternehmen überschreiten. Denkbar wäre jedoch eine Erweiterung des vorhandenen Modells durch ‚Spezialwissen'.
Es ist schwierig vorherzusagen, welche zukünftigen Entwicklungen uns durch die Open-Source-Version erwarten. Wir sehen allerdings bereits jetzt eine direkte Einwirkung auf OpenAI: Die Preise purzeln und nun haben Nutzer kostenlos auf ChatGPT-Modelle Zugriff, für die man bisher 200 $ pro Monat zahlen musste. DeepSeek führt dadurch zu einer marktwirtschaftlich motivierten Demokratisierung. Der Druck auf die genannten US-Konzerne ist enorm.
Praktischer Nutzen
Bei den sog. KI-Modellen handelt es sich genau genommen nicht um eine richtige KI. Die Ausgaben beruhen auf statistischen Annahmen [***]. Da man bei den neusten Sprachmodellen den Programmen mehr oder weniger beim Nachdenken zusehen kann, wird schnell klar, dass sie zu zahlreichen Fehlschlüssen und Logikfehlern gelangen und diese nur durch Iteration beseitigen können. Dennoch sind die Resultate oft erstaunlich und haben unsere Welt nachhaltig verändert. Diese Veränderung wird sich nicht aufhalten lassen, da Personen und Firmen, die solche Modelle vernünftig einsetzen, i. d. R. erfolgreicher sein werden.
Das Schlüsselwort lautet ‚vernünftig'. In den letzten Jahren gab es zahlreiche Beispiele für das Gegenteil. Bekannt sind u. a. einige Magazine und ganze Verlage, die sich durch exzessiven, unüberlegten Gebrauch von KI ihren Ruf und somit ihre Existenz ruinierten.
Etwas verwunderlich erscheint der Einbruch der Nvidia-Aktie. Es mag sein, dass man nicht ganz so viel Hardware braucht wie angenommen, um auf das aktuelle Niveau zu kommen. Man könnte aber auch schlussfolgern, dass sich mit mehr Ressourcen noch wesentlich großartigere Sprachmodelle erschaffen lassen. Selbst wenn man „nur“ in kürzerer Zeit zum gleichen Resultat kommt, ist es ebenfalls ein Fortschritt, schließlich nutzen wir für längere Flüge auch Düsenflugzeuge statt Propeller.
Unmittelbar stellen wir fest, dass DeepSeek R1 ein weiteres Werkzeug ist. In praktischen Tests ist es zuweilen besser als ChatGPT, manchmal schlechter. Da es lokal ausführbar ist und somit die Daten zu Hause bleiben, scheint es jedoch mehr als eine Alternative zu sein – mit Einschränkungen. Auf den meisten Heimrechnern lassen sich lokal nur kleinere und somit nicht so leistungsfähige Modelle ausführen, wobei man auf brauchbare Antworten ziemlich lange warten darf. Online hingegen wandern die Daten zwar in den fernen Osten, die Bearbeitung geht aber sehr zügig, falls sie trotz Überlastung funktioniert. Bei Tests im Februar 2025 konnte es bis zu dreißig Versuche dauern, bis DeepSeek R1 reagierte. Womöglich ist es auch ein bewusster Beitrag zur Entschleunigung der digitalen Welt.
Trotz der Hürden: KI-gestützte Lösungen gewinnen bereits heute in der Fertigung an Bedeutung – von Qualitätskontrolle bis hin zu Prozessoptimierung. Open-Source-Modelle wie R1 könnten hier neue Möglichkeiten eröffnen.
Negative Folgen
Bei sog. KI-Sprachmodellen handelt es sich genau genommen nicht um richtige Künstliche Intelligenzen – ihre Ausgaben beruhen auf statistischen ModellenWer die aktuellen Modelle vernünftig im Betrieb einsetzen will, muss sich auch möglicher negativer Folgen bewusst sein und ggf. gegensteuern. Jeder, der eine gewisse Zeit mit solchen Sprachmodellen verbracht hat, weiß, dass man den Ausgaben nicht blind vertrauen darf. Dies ist insbesondere dann kritisch, wenn es sich um Fachgebiete handelt, auf denen man selbst kein absoluter Experte ist, weil man Ungenauigkeiten oder gar Halluzinationen nicht erkennt. Häufig beginnt das Problem bereits bei der Aufgabenstellung, zumal die Programme immer noch dazu neigen, Aussagen des Nutzers zu bestärken oder zu rechtfertigen, auch wenn sie grundlegend falsch sind.
Man muss sich der Schwächen sehr genau bewusst sein. Etwa, dass die Modelle nichts wissen, was nicht digital vorhanden ist. Das bemerkt man immer dann, wenn es um Informationen geht, welche nur noch in alten Fachbüchern zu finden sind. Die Modelle sind nicht oder nur unzureichend in der Lage, aus dem aktuellen Wissen auf vergangene Erkenntnisse die richtigen Schlussfolgerungen zu ziehen. Für Technologien, die in der digitalen Welt unterrepräsentiert sind, gilt dies ganz besonders – Stichwort statistische Annahmen.
Ein Problem der aktuell eingesetzten Technik ist der relative Mangel an Trainingsdaten, was es bei Fachgebieten in der Nische – etwa Leiterplatten- oder Galvanotechnik – schwierig macht, ein Modell ausreichend zu trainieren. Diesem Problem begegnet man u. a. auch in der Programmierung, wofür die aktuellen Modelle eigentlich gelobt werden. Verwendet der Benutzer eine eher seltene Programmiersprache, für die zu wenig Trainingsdaten existieren, führt dies trotz populärer Syntax (etwa C) unweigerlich in die digitale Katastrophe. Egal ob ChatGPT oder DeepSeek: Die Modelle beginnen, Funktionen und Befehle zu erfinden, die in der jeweiligen Programmiersprache nicht vorhanden sind. Wenn sich der Code nicht kompilieren lässt, ist es gut, weil der Fehler offensichtlich ist. Problematisch wird es, wenn sich schwere, aber nicht so offensichtliche Fehler verstecken. Etwa ein Absturz nach mehreren Stunden Nutzung eines Programms. Und dann stellen wir uns vor, dass sich solche Fehler in den Angaben zu Chemie, Elektrotechnik oder Medizin verstecken. Das Kernproblem sind jedoch nicht die Sprachmodelle selbst, sondern die Erwartungen der Benutzer.
Eine Bewertung möglicher Langzeitschäden für Menschen, Industrie und Gesellschaft ist kaum durchführbar. Es wird zahlreiche negative Resultate geben, aber ihre Relevanz ist unklar. Beispiele aus der Geschichte gibt es genügend, etwa die Auswirkung von Taschenrechnern auf die Fähigkeit des Kopfrechnens oder der Digitalisierung auf die Handschrift. Die zwei markantesten Gefahren scheinen derzeit:
- Schlechteres Grundlagenwissen: Neue Generationen erlernen nicht mehr die nötigen Basics, etwa in den Bereichen Mathematik, Physik und Elektronik.
- Mangelnde Nachvollziehbarkeit der Resultate: Die Ausgaben der KI können immer weniger verstanden werden, gelten aber als richtig.
Das Phänomen von Punkt 2 haben wir bereits bei Spielen wie Go und Schach. Die KI gibt den besten Zug an, kann aber selbst nicht sagen, warum. Dies wird uns auch bei Sprachmodellen drohen. Sie versucht zwar zu begründen, ab einem gewissen Niveau wird die Erklärung jedoch von Menschen nicht mehr verstanden.
Computerintelligenz brauchte sehr viel länger als bei Schach, um Menschen im Go-Spiel besiegen zu können – warum sie es inzwischen vermag, kann sie wiederum Menschen nicht mehr erklären
Schritt statt Sprung
Auch wenn DeepSeek R1 im Kern kaum etwas besser macht als die Wettbewerber, ist die Entwicklung als Fortschritt zu sehen. Es ist ein neuer, disruptiver Player im KI-Markt, der die Konkurrenz zu neuen Höchstleistungen antreiben wird und die Branche demokratisiert.
Aufgrund des Niveaus und der Einschränkungen der Fähigkeiten kann es jedoch nicht als Sprung gewertet werden. Dieser könnte in kommenden Versionen, möglicherweise durch die Open-Source-Gemeinde, erfolgen. R1 ist ein neues Werkzeug im KI-Sandkasten und die freie Verwendbarkeit macht Hoffnung, dass auch kleinere und mittlere Unternehmen bessere, individuellere Modelle erschaffen, um spezialisierte Aufgaben zu meistern, sofern die Trainingsdaten dafür ausreichen.
Referenzen
[*] https://claude.ai/
[**] https://www.perplexity.ai/
[***] PLUS-Kolumnist Dr. Jan Kostelnik wies in seiner ‚PlattenTektonik' (Ausgabe 5/2024) darauf hin, dass in den 1990ern ‚Expertensysteme' als letzter Schrei und frühe Vertreter künstlicher Intelligenz galten (ohne dies zu sein.)