Deepseek, ein chinesisches Startup für künstliche Intelligenz, hat am vergangenen Wochenende den ersten Platz im US-amerikanischen App Store von Apple übernommen und OpenAys Chatgpt in Downloads übertroffen.

Der Meilenstein erfolgt nach der Veröffentlichung von Deepseeks Flaggschiff-Argumentationsmodell R1, das schnell Anerkennung für seine Fähigkeit erhalten hat, fortschrittliche AI ​​-Systeme mithalten zu können und gleichzeitig einen Bruchteil der normalerweise erforderlichen Ressourcen zu betreiben. Quelle: Sensor-Turm

Deepseek R1 bietet eine modernste Leistung, während gleichzeitig nach CCP-Regeln zensiert wird. ,

Related : Warum US-Sanktionen möglicherweise Schwierigkeiten haben, Chinas technisches Wachstum

durch die Entwicklung effizienter Trainingsmethoden einzudämmen. möglich, auch unter geopolitischen Zwängen. Diese Entwicklung stellt die Wahrnehmung der US-Dominanz in der künstlichen Intelligenz in Frage und wirft Fragen zur Wirksamkeit von Exportbeschränkungen auf, die darauf abzielen, die technologischen Fähigkeiten Chinas einzudämmen./H2>

Deepseeks R1-Modell wurde unter Verwendung von nur 2.048 NVIDIA H800 GPUs zu einem Gesamtkosten von weniger als 6 Millionen US-Dollar geschult. Versionen der H100-Chips, die von US-Unternehmen wie OpenAI und Meta verwendet werden. Trotz der Hardware-Einschränkungen entwickelten Deepseeks Ingenieure neuartige Optimierungstechniken, mit denen R1 Ergebnisse erzielte, die mit Modellen vergleichbar waren, die auf weitaus leistungsstärkerer Infrastruktur geschult wurden. Interview mit 36 ​​kR.”Wir müssen viermal mehr Computerkraft verbrauchen, um den gleichen Effekt zu erzielen”

Verwandte: Deepseek AI Open Sources VL2-Serie von Vision Language Models

Liang sagte. Liangs Voraussicht bei der Lagerung von Nvidia-GPUs, bevor die US-Beschränkungen wirksam wurden. Dimitris Papailiopoulos, ein Hauptforscher am AI Frontiers Lab von Microsoft, hob die Effizienz des Entwurfs von R1 hervor.

„Sie zielten auf genaue Antworten an, anstatt jeden logischen Schritt zu detaillieren und die Computerzeit erheblich zu verkürzen und gleichzeitig ein hohes Maß an Effektivität aufrechtzuerhalten“, sagte er gegenüber MIT Technology Review.

Leistung Benchmarks und Branchenerkennung

R1 von technischen Benchmarks war besonders stark und erzielte bei AIMe 2024. Deepseek zeigt, dass Deepseeks ressourceneffizientes Modell mit Branchenführern konkurrieren kann. Entwickler, Pädagogen und Hobbyisten. Mistral AI Debüts Pixtral 12b für Text-und Bildverarbeitung

Deepseeks Erfolge haben aus prominenten Figuren im KI-Feld gelobt. Yann Lecun, der Chef-KI-Wissenschaftler von Meta, betonte die Rolle der Open-Source-Zusammenarbeit bei Deepseeks Erfolg. „Deepseek hat von Open Research und Open Source (z. B. Pytorch und Lama von Meta) profitiert. Sie haben neue Ideen entwickelt und sie auf die Arbeit anderer Menschen aufgebaut.”Lecun schrieb über LinkedIn. Weil ihre Arbeiten veröffentlicht und Open Source, jeder kann davon profitieren. Das ist die Kraft der offenen Forschung und Open Source.”<

In ähnlicher Weise beschrieb Marc Andreessen, Mitbegründer von Andreessen Horowitz, R1 als „einen der erstaunlichsten Durchbrüche, die ich je gesehen habe“. Diese Vermerke unterstreichen die globalen Auswirkungen von Deepseeks einfallsreicher Ansatz zur KI-Entwicklung.

Erschwinglichkeit und Open-Source-Ethos

Im Gegensatz zu proprietären Plattformen wie dem ChatGPT von Openai hat Deepseek eine Open-Source-Philosophie angenommen. Gewichte, Schulungsrezepte und Dokumentation öffentlich verfügbar, sodass Entwickler weltweit replizieren oder auf ihrer Arbeit aufbauen können. R1 Popularität. Diese Preisstrategien, kombiniert mit den robusten Fähigkeiten des Modells, haben Deepseek zu einer attraktiven Option für Einzelpersonen und Unternehmen gemacht. Sie über „Open Source“-Modelle

Geopolitische Implikationen von Deepseeks Erfolg

Deepseeks Aufstieg erfolgt zu einer Zeit erhöhter geopolitischer Spannungen zwischen den USA und China, Insbesondere im Bereich der künstlichen Intelligenz. Dass solche Maßnahmen möglicherweise nicht vollständig innovativ sind.

Der Erfolg des Unternehmens hat zu Debatten in den US-Technologiekreisen über die unbeabsichtigten Folgen von Exportkontrollen geführt. Liangs Strategie, GPUs zu lagern und sich auf die Effizienz zu konzentrieren von nvidia und anderen

Eine breitere Bewegung im chinesischen AI

Deepseeks Open-Source-Ansatz entspricht einem breiteren Trend im Chinas KI-Sektor. Andere Unternehmen, darunter Alibaba Cloud und Kai-Fu Lee’s 01.AI, haben in den letzten Jahren ebenfalls Open-Source-Initiativen priorisiert. Liang hat die Notwendigkeit beschrieben, das zu beheben, was er als „Effizienzlücke“ zwischen chinesischen und westlichen KI-Unternehmen bezeichnet, und erklärt, dass lokale Unternehmen häufig doppelte Ressourcen benötigen, um vergleichbare Ergebnisse zu erzielen.

Verwandte: Alibaba Qwen veröffentlicht qvq-72b-Präview-Multimodal-Argumentation AI-Modell

im Juli 2024, erklärte Liang: „Wir schätzen, dass die besten inländischen und fremden Modelle eine Lücke von einer Falmenmodellstruktur und-struktur und in der Modellstruktur und der Modellstruktur haben können Trainingsdynamik. Trainingsdaten und Rechenleistung, um den gleichen Effekt zu erzielen.

Seine Führung hat Deepseek sowohl in China als auch international anerkannt. Im Jahr 2024 wurde er zu hochrangigen Treffen mit chinesischen Beamten eingeladen, um Strategien zur Weiterentwicklung der KI-Fähigkeiten des Landes zu erörtern. Deepseek verfeinert weiterhin seine Modelle, das Unternehmen steht sowohl Chancen als auch Herausforderungen gegenüber. Während seine Erfolge die Lebensfähigkeit der ressourceneffizienten KI nachgewiesen haben, bleiben Fragen darüber, ob solche Ansätze skalieren können, um mit den massiven Investitionen von Tech-Riesen wie OpenAI und Meta zu konkurrieren. Mark Zuckerberg, CEO von Meta, hat hervorgehoben, wie wichtig große Investitionen in die AI-Infrastruktur sind, Sying „Dies wird ein entscheidendes Jahr für KI sein. Im Jahr 2025 erwarte ich, dass Meta AI der führende Assistent sein wird, der mehr als 1 Milliarde Menschen bedient, Lama 4 wird das führende hochmoderne Modell und wir werden einen KI-Ingenieur bauen, der zunehmend Code-Mengen beitragen wird zu unseren F & E-Bemühungen. Um dies mit Strom zu versorgen, baut Meta ein 2GW+-Matenzentrum, das so groß ist, dass es einen bedeutenden Teil von Manhattan abdecken würde.

Wir bringen in ’25 Online ~ 1 GW Recheninformationen und beenden das Jahr mit mehr als 1,3 Millionen GPUs. Wir planen, in diesem Jahr 60 bis 65 Mrd. USD in Capex zu investieren und gleichzeitig unsere KI-Teams erheblich auszubauen, und wir haben das Kapital, um in den kommenden Jahren weiter zu investieren. Dies ist eine massive Anstrengung und wird in den kommenden Jahren unsere Kernprodukte und unsere Wirtschaft vorantreiben, historische Innovationen freischalten und die amerikanische Technologieführung erweitern. Lass uns bauen!”Nachhaltige Auswirkungen auf die globale KI-Industrie.

Categories: IT Info