US-KI-Riesen zittern: Was steckt hinter Chinas DeepSeek?

Deepseek

Ende Dezember stellte das chinesische „KI-Labor“ DeepSeek ein fortschrittliches, quelloffenes KI-Modell vor, das nach eigenen Angaben leistungsfähiger und kostengünstiger in der Entwicklung ist als amerikanische Modelle von Firmen wie OpenAI.

Unabhängige Tests bestätigten diese Behauptung, da DeepSeek Modelle wie OpenAIs GPT-4o und Metas Llama 3.1 bei Aufgaben wie komplexem Problemlösen, Rechnen und Programmieren übertraf. Vor gut einer Woche stellte DeepSeek ein weiteres Modell namens r1 vor, das auf logisches Denken spezialisiert ist und ebenfalls in den Benchmark-Tests glänzte.

Grafik: DeepSeek

Beim Weltwirtschaftsforum in Davos warnte unter anderem Microsoft-Chef Satya Nadella davor, die Entwicklungen aus China zu unterschätzen. Er hob insbesondere die Effizienz und den technischen Fortschritt von DeepSeek hervor, was in den USA Besorgnis auslöste – auch bei Meta, wo man ebenfalls auf ein Open-Source-Modell setzt. Die Frage, ob die USA ihre Führungsposition im Bereich KI halten können, wird immer drängender, zumal die Chinesen mit begrenzten Ressourcen beeindruckende Ergebnisse zu erzielen scheinen.

Experten rätseln, wie DeepSeek trotz Exportbeschränkungen für Hochleistungschips wie Nvidias H100 und mit einem Budget von weniger als sechs Millionen Dollar solche Fortschritte machen konnte. Möglicherweise haben sie neue, extrem effiziente Trainingsmethoden entwickelt oder Wege gefunden, die US-Sanktionen zu umgehen.

Die Angaben von DeepSeek können aktuell von unabhängiger Seite nicht überprüft werden, es kann sich allerdings jeder selbst ein Bild machen.

Jetzt mobiFlip kostenlos auf WhatsApp folgen und informiert bleiben!

Weitere Themen
Hinterlasse deine Meinung
21 Kommentare aufrufen
Die mobile Version verlassen