Direkt zum Inhalt

KI made in China: DeepSeek erschüttert erneut die KI-Welt

Das neue Sprachmodell V4 der chinesischen Firma DeepSeek ist quelloffen, verarbeitet gigantische Eingabemengen – und läuft auf chinesischer Hardware von Huawei. Verliert die USA nun ihre Vormachtstellung?
Ein Smartphone-Bildschirm zeigt ein stilisiertes Wal-Symbol in Blau, begleitet vom Text „deepseek“. Der Hintergrund ist ebenfalls in Blau gehalten, was dem Bild einen einheitlichen, modernen Look verleiht. Das Symbol und der Text deuten auf eine Marke oder Anwendung hin, die möglicherweise mit Technologie oder Meeresforschung in Verbindung steht.
DeepSeek hat nun sein lang ersehntes neues Sprachmodell vorgestellt.

Am 24. April 2026 hat die chinesische Techfirma DeepSeek ihr neues, von der KI-Community lang ersehntes Sprachmodell V4 veröffentlicht. Zuvor hatte es viele Spekulationen darüber gegeben, wie das Modell wohl sein könnte, ob es weiterhin quelloffen bleiben würde und auf welcher Hardware es laufen werde. Nun steht fest: DeepSeek hält an seinem früheren Kurs fest – und bricht erneut mit dem intransparenten Vorgehen großer US-Firmen. Damit könnte die chinesische Firma eine Revolution einleiten, die KI-Technologien von ihrer US-Abhängigkeit löst.

Etwas mehr als ein Jahr zuvor hatte das chinesische Unternehmen bereits für Aufsehen gesorgt, als es das Sprachmodell R1 der Öffentlichkeit vorstellte. Dieses benötigt weitaus weniger Ressourcen als konkurrierende Modelle – kann von seinen Fähigkeiten her aber locker mit ihnen mithalten. Die DeepSeek-Entwickler hatten es geschafft, einige der zugrunde liegenden Algorithmen so zu verbessern, dass nur ein Bruchteil der zuvor erforderlichen Computerchips und Energiekosten nötig war. Dieser »DeepSeek-Moment« weckte gerade in Europa große Hoffnungen: Vielleicht sei das Wettrennen um die KI-Vorherrschaft doch noch nicht entschieden. Vielleicht könnten auch europäische Firmen, die über weniger Rechenkapazitäten verfügen, in diesem Bereich nachziehen.

Entsprechend neugierig war die Fachwelt, als DeepSeek das neue Sprachmodell V4 ankündigte. Es gab bereits Gerüchte, dass die chinesische Firma ihre KI auf chinesischen Chips der Firma Huawei laufen lassen würde – ein weltweites Novum. Aktuell nutzen nämlich alle großen Sprachmodelle Hardware der US-Firma NVIDIA. Grund dafür ist nicht unbedingt die technische Überlegenheit der Chips, sondern auch die Softwareumgebung, die NVIDIA geschaffen hat. Damit verfügt das Unternehmen faktisch ein Monopol in der KI-Welt. Und das hat geopolitische Auswirkungen. So hat die US-Regierung in der Vergangenheit den Export der leistungsfähigsten NVIDIA-Chips reguliert, um ihre technische Vormachtstellung zu behalten.

Open Source, Unabhängigkeit von NVIDIA und riesige Inputs

Wie aus der begleitenden Facharbeit zum neuen DeepSeek-Modell hervorgeht, operiert V4 tatsächlich auf Huawei-Chips. Doch Fachleute betonen, dass das nur die »Inferenz« betreffe, also die Verarbeitung von Nutzeranfragen. Auf welcher Hardware das Sprachmodell trainiert wurde, erwähnt DeepSeek nicht. Der Informatiker Liu Zhiyuan von der Tsinghua-Universität erklärte gegenüber »MIT Technology Review«, dass die Firma offenbar nur einen Teil des Trainingsprozesses von V4 an chinesische Chips angepasst habe. Er geht davon aus, dass das Training von V4 möglicherweise weiterhin hauptsächlich auf NVIDIA-Chips stattfand.

Nicht nur die Hardwarenutzung macht V4 zu etwas Besonderem. Laut des Begleitartikels der DeepSeek-Entwickler kann das neue Modell mit den leistungsfähigsten verfügbaren Versionen von OpenAI (GPT 5.4) und Anthropic (Claude Opus 4.6) mithalten; ist für Nutzende aber deutlich günstiger. Während man pro Ausgabelänge von einer Million Output-Tokens bei Anthropic 25 US-Dollar zahlt, sind es bei der leistungsfähigsten Version von DeepSeeks V4 gerade einmal 3,25 US-Dollar. »Ich glaube nicht, dass es ein Modell gibt, das in puncto Preis-Leistungs-Verhältnis damit mithalten kann«, schrieb ein User auf »Reddit«.

Beeindruckend sei aber vor allem die enorme Menge an Eingabedaten, die das neue Modell verarbeiten könne, erklärt der Informatiker Ben Burtenshaw von der Open-Source-Plattform Hugging Face in einem Blogpost. »Die eigentliche Innovation besteht darin, dass DeepSeek V4 für die effiziente Verarbeitung großer Kontextlängen ausgelegt ist und sich daher als einer der besten Kandidaten für agentische Aufgaben eignet.« Das Modell kann bis zu einer Million Token verarbeiten – was etwa der Länge von J.R.R. Tolkiens Werken »Der kleine Hobbit« plus den drei Bänden »Der Herr der Ringe« entspricht.

Um so viele Informationen verarbeiten zu können, haben die DeepSeek-Entwickler den Aufmerksamkeitsmechanismus optimiert, der Sprachmodellen zugrunde liegt. Anstatt alle eingegebenen Inhalte gleichwertig zu behandeln, identifiziert das Modell die Passagen, die höchstwahrscheinlich eine wichtigere Rolle spielen, und konzentriert sich auf diese – ähnlich, wie es das menschliche Gehirn auch tut. Zudem kann V4 seine Schlussfolgerungen über mehrere Benutzernachrichten hinweg bewahren. Dadurch könne es über lange Zeiträume hinweg kohärente Argumentationsketten aufbauen, schreibt Burtenshaw. 

»Wie immer bleiben wir dem langfristigen Denken und dem Credo ›Open Source für alle‹ treu. AGI gehört allen!«Deli Chen, DeepSeek-Entwickler

All diese Schritte führten dazu, dass DeepSeek V4 in bekannten KI-Benchmark-Tests ähnlich gut abschneidet wie die besten Modelle großer US-Techkonzerne wie Anthropic, OpenAI oder Google. Anders als deren KI-Modelle ist V4 quelloffen verfügbar, sodass jede Person frei darauf zugreifen darf. Man kann das Modell herunterladen, ausführen und verändern. Der DeepSeek-Forscher Deli Chen schrieb dazu auf X: »Wie immer bleiben wir dem langfristigen Denken und dem Credo ›Open Source für alle‹ treu. AGI (Anm. d. Red.: allgemeine künstliche Intelligenz) gehört allen!« Andere sind da etwas skeptischer. Zwar sei das Modell öffentlich zugänglich, doch es sei teilweise so kompliziert und erfordere derart viel Rechenpower, dass man es nicht ohne Weiteres nachbauen und im Detail verstehen könnte. Dennoch begrüßen die meisten aus der KI-Community den Schritt der Transparenz.

Es bleibt abzuwarten, welche Auswirkungen V4 auf die Techwelt hat. Das chinesische Unternehmen DeepSeek hat mit diesem Modell wieder einmal gezeigt, dass die Vormachtstellung der USA im Bereich KI keineswegs gesichert ist. Durch innovative Konzepte könnte sich in Zukunft vielleicht die Abhängigkeit von NVIDIA lösen lassen. Leider sei in Europa der erste DeepSeek-Moment Anfang 2025 schnell verflogen, sagte der Informatiker Christian Mayr von der TU Dresden gegenüber »Spektrum« im Januar 2026. Statt an den bewährten Systemen festzuhalten, könne man an den Codes und den Plattformen feilen, um Sprachmodelle mit möglichst wenig Aufwand zu betreiben – genau das verdeutliche DeepSeek nun erneut. Bleibt zu hoffen, dass Europa mehr aus diesem zweiten Durchbruch macht.

WEITERLESEN MIT »SPEKTRUM +«

Im Abo erhalten Sie exklusiven Zugang zu allen Premiumartikeln von »spektrum.de« sowie »Spektrum - Die Woche« als PDF- und App-Ausgabe. Testen Sie 30 Tage uneingeschränkten Zugang zu »Spektrum+« gratis:

Jetzt testen

(Sie müssen Javascript erlauben, um nach der Anmeldung auf diesen Artikel zugreifen zu können)

  • Quellen

DeepSeek AI: DeepSeek-V4: Towards Highly Efficient Million-Token Context Intelligence, 2026
Online unter https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.