Die KI-Welt steht Kopf: Das chinesische Startup DeepSeek mischt mit seinen Modellen V3 und R1 gerade die Szene auf. Diese künstlichen Intelligenzen sind technisch scheinbar auf Augenhöhe mit den Platzhirschen von OpenAI, Google und Meta, dabei aber deutlich günstiger – für die meisten User sogar kostenlos. Kein Wunder also, dass die KI-Modelle des bislang völlig unbekannten chinesischen Unternehmens derzeit die App-Charts stürmen.
Doch DeepSeek bringt nicht nur Innovationen, sondern auch eine brisante Frage mit sich: Wie geht diese KI mit Themen um, die in China politisch heikel sind?
DeepSeek ist für alle zugänglich. Entwickler können die Modelle über eine API in eigene Apps oder Webdienste einbinden, während Privatnutzer DeepSeek als App oder direkt über die Website kostenlos nutzen können. Funktionalität und Bedienung erinnern dabei stark an bekannte Player wie ChatGPT oder Claude – man stellt Fragen, gibt Aufgaben und die KI liefert Antworten. Doch während die Oberfläche ganz harmlos und benutzerfreundlich erscheint, offenbart sich bei sensiblen Themen eine verborgene Seite der Technologie.
Wie erwartet spielt die Zensurfrage bei einer KI aus China schnell eine Rolle. Wie reagiert ein Chatbot wie DeepSeek auf Themen wie Taiwan, die Uiguren oder das Tian’anmen-Massaker? Die Antworten darauf könnten kaum eindeutiger sein. DeepSeek liefert häufig keine Fakten zu diesen Themen, sondern greift auf staatlich vorgegebene Narrative zurück. Doch was besonders auffällt, ist die Art und Weise, wie die Zensur funktioniert: Sie geschieht in Echtzeit, vor den Augen der Nutzer.
DeepSeek ist ein Paradebeispiel dafür was passiert, wenn Technologie und Ideologie untrennbar miteinander verbunden sind. Die beeindruckenden technischen Fähigkeiten der Modelle – von der Sprachverarbeitung bis hin zur Skalierbarkeit – stehen im Kontrast zu den politischen Beschränkungen, die diese Technologie kontrollieren und steuern. Während westliche KI-Anbieter wie OpenAI oder Anthropic auf Transparenz und ethische Richtlinien setzen – zumindest behaupten sie das –, ist die politische Färbung bei DeepSeek offenkundig. Auf der anderen Seite: Ist diese Art der Zensur vielleicht sogar transparenter als unsere KI-Modelle aus dem Westen?!
Trotzdem bleibt DeepSeek ein technologisches Phänomen. Es zeigt, wie leistungsstarke KI-Modelle zu niedrigen Kosten entwickelt werden können und hat das Potenzial, die Branche in vielerlei Hinsicht zu überrollen. Nicht umsonst haben die Aktienkurse der „klassischen“ KI-Welt heute ganz schön eingebüßt. Investoren fragen sich (vielleicht sogar zurecht), ob sie auf das falsche Pferd, eine falsche Technologie, gesetzt haben.
Doch solange die Zensur ein integraler Bestandteil von DeepSeek bleibt, wird die Akzeptanz hierzulande sicher ein wenig leiden. Denn am Ende des Tages brauchen KI-Nutzerinnen und ‑Nutzer nicht nur Innovation, sondern auch Vertrauen.