
Das große Modell von DeepSeek erschüttert die globale KI-Community!
Share
Kürzlich gab DeepSeek die offizielle Veröffentlichung seines neuesten künstlichen Intelligenzmodells DeepSeek-R1 bekannt, zusammen mit der Veröffentlichung der Gewichte des Modells als Open Source. DeepSeek-R1 nutzte in der Nachtrainingsphase umfassend die Technologie des bestärkenden Lernens und verbesserte so die Denkfähigkeiten des Modells mit minimal annotierten Daten erheblich.
Die Leistung von DeepSeek-R1 in Aufgaben wie Mathematik, Codierung und natürlichem Sprachschlussfolgern kann mit der offiziellen o1-Version von OpenAI mithalten. Daten zeigen, dass die Ergebnisse von DeepSeek-R1 in algorithmischen Codierungsszenarien (Codeforces) und wissensbasierten Tests (GPQA, MMLU) etwas niedriger sind als die von OpenAI o1. In technischen Codierungsszenarien (SWE-Bench Verified) und den amerikanischen Mathematikwettbewerben (AIME 2024, MATH) übertrifft DeepSeek-R1 jedoch OpenAI o1.
Darüber hinaus ist es bemerkenswert, dass der DeepSeek-R1 API-Dienst mit 1 Yuan pro Million Eingabetoken (Cache-Treffer) / 4 Yuan (Cache-Fehler) und 16 Yuan pro Million Ausgabetoken berechnet wird, wobei der Ausgabe-API-Preis nur 3 % des Preises von OpenAI o1 beträgt. Hinter dem niedrigen Preis verbirgt sich immer noch ein Zeichen der Stärke, da die Preissetzungsmacht technisches Können demonstriert – die Fähigkeit, Kosten auf der Ebene der KI-Infrastruktur zu senken.