chinesisches KI-Startup Deepseek hat ein bemerkenswertes Update auf das R1-Modell für künstliche Intelligenz mit dem Namen Deepseek-R1-0528 gestartet, wodurch seine Funktionen erheblich verbessert und die führenden globalen Systeme näher positioniert werden. Trotz bemerkenswerter Leistungssteigerungen berücksichtigt das Unternehmen das neue Modell als „kleines Update“. Dies ist für Benutzer und die breitere Branche von Bedeutung, wobei der schnelle Fortschritt chinesischer KI-Unternehmen und vielversprechendere, zuverlässigere KI-Tools hervorgehoben und damit den globalen AI-Wettbewerb intensiviert. Die Gesamtleistung nähert sich nun „der von führenden Modellen wie O3 und Gemini 2.5 Pro“. Diese Verbesserung ist laut Deepseek AI auf erhöhte Rechenressourcen und neue algorithmische Optimierungsmechanismen, die während ihrer Nachtrainingphase angewendet werden. Src=”Daten: Bild/SVG+XML; Nitro-Treppy-ID=Mty0mdoxndc2-1; Base64, Phn2ZyB2AWV3QM94psiwidagmti4mca3nz Miihdpzhropsixmjgwiibozwlnahq9ijc3Myig1sbnm9imh0dha6ly93D3CUDZMUB3JNLZIWMDAVC3ZNIJ48L3N2ZZ4=”>
Für Benutzer bedeutet dies die Erwartungen an genauere und kontextbezogene Ausgänge, insbesondere bei der Bekämpfung komplexer Aufgaben. Das Unternehmen betonte außerdem, dass die R1-0528-Version eine verbesserte Unterstützung für Funktionsaufrufe bietet und eine bessere Interaktion mit externen Tools ermöglicht, und eine verbesserte Erfahrung für „Vibe-Codierung“, was auf eine intuitivere Codeerzeugung hinweist, wie in ihrer Ankündigung angegeben. Parameter aktiviert aber nur etwa 37 Milliarden pro Token während der Inferenz. Insbesondere im Aime 2025-Test, einem herausfordernden Mathematikwettbewerb, stieg die Genauigkeit des Modells Berichten zufolge von 70% auf 87,5%. Das neue Modell lag in diesem Test durchschnittlich 23.000 Token-mit textbearbeiteten textbearbeiteten-eine erhebliche Erhöhung der vorherigen 12.000 Token. Der neue Deepseek R1-0528 übertraf Xais GROK-3-Mini und Alibabas Qwen-3. Plausible, aber falsche Informationen bleiben eine anhaltende Herausforderung. Developers testing the model have also observed that R1-0528 engages in @longer thinking Sitzungen, Berichten zufolge 30 bis 60 Minuten für einzelne Aufgaben, bei Bedarf”, was auf eine Verschiebung zu gründlicheren Antworten hinweist. Die maximale Generierungslänge für das Modell ist ein umfangreicher 64.000-Token. href=”https://chat.deepseek.com/”target=”_ leer”> Deepseeks offizielle Chat-Website Durch die Aktivierung der Option”DeepThink”ist ein OpenAi-COMPATIBLE-API durch die MIT-Lizenz , die kommerzielle Verwendung und Destillation zulässt, hat auch die angekündigte AI-Ankündigung geantwortet. href=”https://unsloth.ai/blog/deepseek-r1-0528″target=”_ leer”> Blog-Post dass sie Deepseeks R1 671B-Modell erfolgreich quantifizierten, um einen starken Gebrauch von 720 g bis 185 GB zu erreichen. Geopolitische Realitäten
Während Deepseeks Umarmungsposten ein signifikantes Upgrade beschreibt, charakterisierten einige die Veröffentlichung in Die Express-Tribune , die auch einen tieferen Vertreter, der in einem privaten Ansatz in einem privaten Ansatz beschreibt. Das Argumentationsmodell der nächsten Generation, deren Einführung Berichten zufolge mit globalen AI-Labors beschleunigt wurde. Der ursprüngliche Deepseek R1 hat zu Beginn des Jahres einen signifikanten Einfluss gemacht, indem er OpenAs O1 auf mehrere Gründe übertrifft Konsequent zur Open-Source-KI beigetragen, veröffentlichen Sie Tools wie den FlashMLA-Dekodierkern und das Deepseek-Prover-V2-671b-Modell für mathematische Theoreme. Deepseek war nicht nur eine weitere KI-App, sondern eine Waffe im Arsenal der chinesischen Kommunistischen Partei, die die Amerikaner ausspionieren, unsere Technologie stehlen und das US-amerikanische Recht stehlen konnten.”
Reaktion auf solche Drucke und US-Exportkontrollen beschränken den Zugang zu Top-Tie-Nvidia-GPUs, Deepseek, die sich auf die Rechenaufwirkung befassten. 2024.