Deep­Seek über­holt den Westen … und zen­siert sich selbst.

Die KI-Welt steht Kopf: Das chi­ne­si­sche Start­up Deep­Seek mischt mit seinen Model­len V3 und R1 gerade die Szene auf. Diese künst­li­chen Intel­li­gen­zen sind tech­nisch schein­bar auf Augen­hö­he mit den Platz­hir­schen von OpenAI, Google und Meta, dabei aber deut­lich güns­ti­ger – für die meis­ten User sogar kos­ten­los. Kein Wunder also, dass die KI-Model­le des bis­lang völlig unbe­kann­ten chi­ne­si­schen Unter­neh­mens der­zeit die App-Charts stür­men.

Doch Deep­Seek bringt nicht nur Inno­va­tio­nen, son­dern auch eine bri­san­te Frage mit sich: Wie geht diese KI mit Themen um, die in China poli­tisch heikel sind?

Deep­Seek ist für alle zugäng­lich. Ent­wick­ler können die Model­le über eine API in eigene Apps oder Web­diens­te ein­bin­den, wäh­rend Pri­vat­nut­zer Deep­Seek als App oder direkt über die Web­site kos­ten­los nutzen können. Funk­tio­na­li­tät und Bedie­nung erin­nern dabei stark an bekann­te Player wie ChatGPT oder Claude – man stellt Fragen, gibt Auf­ga­ben und die KI lie­fert Ant­wor­ten. Doch wäh­rend die Ober­flä­che ganz harm­los und benut­zer­freund­lich erscheint, offen­bart sich bei sen­si­blen Themen eine ver­bor­ge­ne Seite der Technologie.

Wie erwar­tet spielt die Zen­sur­fra­ge bei einer KI aus China schnell eine Rolle. Wie reagiert ein Chat­bot wie Deep­Seek auf Themen wie Taiwan, die Uigu­ren oder das Tian’anmen-Massaker? Die Ant­wor­ten darauf könn­ten kaum ein­deu­ti­ger sein. Deep­Seek lie­fert häufig keine Fakten zu diesen Themen, son­dern greift auf staat­lich vor­ge­ge­be­ne Nar­ra­ti­ve zurück. Doch was beson­ders auf­fällt, ist die Art und Weise, wie die Zensur funk­tio­niert: Sie geschieht in Echt­zeit, vor den Augen der Nutzer.

 

Deep­Seek ist ein Para­de­bei­spiel dafür was pas­siert, wenn Technologie und Ideo­lo­gie untrenn­bar mit­ein­an­der ver­bun­den sind. Die beein­dru­cken­den tech­ni­schen Fähig­kei­ten der Model­le – von der Sprach­ver­ar­bei­tung bis hin zur Ska­lier­bar­keit – stehen im Kon­trast zu den poli­ti­schen Beschrän­kun­gen, die diese Technologie kon­trol­lie­ren und steu­ern. Wäh­rend west­li­che KI-Anbie­ter wie OpenAI oder Anthro­pic auf Trans­pa­renz und ethi­sche Richt­li­ni­en setzen – zumin­dest behaup­ten sie das –, ist die poli­ti­sche Fär­bung bei Deep­Seek offen­kun­dig. Auf der ande­ren Seite: Ist diese Art der Zensur viel­leicht sogar trans­pa­ren­ter als unsere KI-Model­le aus dem Westen?!

Trotz­dem bleibt Deep­Seek ein tech­no­lo­gi­sches Phä­no­men. Es zeigt, wie leis­tungs­star­ke KI-Model­le zu nied­ri­gen Kosten ent­wi­ckelt werden können und hat das Poten­zi­al, die Bran­che in vie­ler­lei Hin­sicht zu über­rol­len. Nicht umsonst haben die Akti­en­kur­se der „klas­si­schen“ KI-Welt heute ganz schön ein­ge­büßt. Inves­to­ren fragen sich (viel­leicht sogar zurecht), ob sie auf das fal­sche Pferd, eine fal­sche Technologie, gesetzt haben.

Doch solan­ge die Zensur ein inte­gra­ler Bestand­teil von Deep­Seek bleibt, wird die Akzep­tanz hier­zu­lan­de sicher ein wenig leiden. Denn am Ende des Tages brau­chen KI-Nut­ze­rin­nen und ‑Nutzer nicht nur Innovation, son­dern auch Ver­trau­en. 

TEILEN

Autor kontaktieren

Maximilian Kratzer

DAS KÖNNTE IHNEN AUCH GEFALLEN

DAS KÖNNTE IHNEN AUCH GEFALLEN

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen