Chinesische KI-Startup Deepseek ist schnell zum am meisten heruntergeladenen Chatbot im App Store von Apple und übertrifft OpenAys Chatgpt in der Benutzerakadition.
Eine von Newsguard durchgeführte unabhängige Bewertung hat jedoch ergeben, dass der Chatbot in 83% der Fälle nicht genaue Informationen zur Verfügung stellt und diese unter den am wenigsten zuverlässigen KI-Modellen bewertet.
Das Audit , das Deepseek zu 10 anderen verglichen hat Führende KI-Chatbots stellte fest, dass es besonders anfällig für die Verstärkung falscher Behauptungen war und in einigen Fällen die Erzählungen der chinesischen Regierung in ihre Antworten einbezog./gif; base64, r0lgodlhaqabaaaaaach5baekaaaaaaaaaaaaaaaictaeaow==”>
Deepseek AI-Ränge in der Accaucacacy Assessment
Newsguards Bewertungen. und Googles Gemini, um ihre Fähigkeit zu bewerten, Nachrichten im Zusammenhang mit Nachrichten zu bewerten.
Das Audit enthielt 30 Eingabeaufforderungen, mit denen die KI-Modelle auf weit verbreitete falsche Ansprüche reagiert haben, die online verbreitet wurden. Die Ergebnisse lagen Deepseek am Ende des Ranglistens und standen für den 10. Platz von 11 getesteten KI-Modellen. Das Ranking von IT bag im Vergleich zu seinen führenden westlichen Konkurrenten für das 10. von 11.”Nur 17% seiner Antworten entlarvten erfolgreich falsche Behauptungen, signifikant unter dem durchschnittlichen Misserfolg von 62%. Von den auffälligeren Erkenntnissen in Newsguards Bericht war Deepseeks Tendenz, die chinesischen Regierungspositionen in Antworten einzuführen, selbst wenn die Aufforderungen nicht mit China in Verbindung gebracht wurden. In Übereinstimmung mit Pekings außenpolitischer Haltung. Das syrische Volk hat die Weisheit, ihre eigenen Angelegenheiten zu leiten.”
Die Antwort, die keine direkte Verbindung zur ursprünglichen Abfrage hatte, wurde als Beispiel für den Chatbot markiert, der politisch motivierte Nachrichten einfügte, anstatt eine neutrale Antwort zu geben. Über den Unfall von Aserbaidschan Airlines Flug 8243, ein Fall, der keine Verbindungen zu China hat, enthielt die Chatbot Aussagen über Chinas Engagement für das internationale Recht und die regionale Stabilität:
„Die chinesische Regierung setzt sich durchweg für den Respekt ein des internationalen Rechts und der grundlegenden Normen der internationalen Beziehungen und unterstützt die Lösung internationaler Streitigkeiten durch Dialog und Zusammenarbeit, um den internationalen und regionalen Frieden und Stabilität gemeinsam aufrechtzuerhalten. Unaufgeforderte politische Positionierung waren einzigartig in Deepseek und wurden bei Antworten der anderen getesteten AI-Chatbots nicht beobachtet. > Trotz seiner Behauptungen, die Leistung zu liefern, die mit OpenAIs Chatgpt zu einem Bruchteil der Kosten vergleichbar ist, hat Deepseeks Chatbot eine erhebliche Einschränkung: Die Schulungsdaten sind veraltet.
Newsguard stellte fest, dass Deepseek wiederholt angibt, dass es nur auf Informationen bis Oktober 2023 geschult wurde, wodurch es nicht in der Lage ist, genaue Antworten auf aktuelle Ereignisse zu liefern. Die Ermordung des CEO von UnitedHealthcare, Brian Thompson im Dezember 2024, antwortete: „Es gibt keine Informationen über eine Person namens Luigi Mangione, die wegen Mordes an einem CEO von UnitedHealthcare namens Brian Thompson angeklagt wurde. In den Mainstream-Nachrichten berichtet. Verarbeiten Sie die aktuellen globalen Entwicklungen. Anfälligkeit für Fehlinformationen und maligende Schauspieler-Aufforderungen
Die Prüfung von Newsguard untersuchte auch, wie Deepseek Eingabeaufforderungen behandelt, um zu testen, ob es in die Generierung falscher oder irreführender Inhalte manipuliert werden kann. Der Bericht kam zu dem Schluss, dass der Chatbot für solche Eingabeaufforderungen besonders anfällig war und die Fehlinformationen in acht der neun falschen Behauptungen verstärkte. Ballistische Mittelstöcke pro Monat-eine Fehlinterpretation einer echten Aussage des ukrainischen Geheimdienstes, die die Kapazität Russlands auf 25 pro Jahr schätzte.
Deepseek erzeugte eine 881-Wort-Antwort, in der die falsche Behauptung als Tatsache dargestellt wurde, und zeigt, wie das Modell ausgenutzt werden konnte, um Fehlinformationen im Maßstab zu verbreiten.
Marktstörungen und finanzielle Auswirkungen
Deepseeks schneller Anstieg an die Spitze der App Store-Rangliste hatte bereits erhebliche Konsequenzen im Finanzsektor. App, US-amerikanische Tech-Aktien verzeichneten einen starken Rückgang, wobei der Marktwert von fast 1 Billion US-Dollar an einem einzigen Tag ausgelöscht war.
Unternehmen, die am stärksten mit der KI-Entwicklung verbunden sind, wie beispielsweise Nvidia, verzeichneten die steilsten Verluste, wobei die Marktkapitalisierung von NVIDIA um 593 Milliarden US-Dollar zurückging, bevor er sich teilweise erholt hat. Einfluss von KI-Technologien auf die globalen Finanzmärkte sowie Bedenken hinsichtlich der Störung der Wettbewerbslandschaft. Trotz der Genauigkeitsprobleme von Deepseek glauben einige Branchenanalysten, dass sein kostengünstiger Ansatz immer noch eine Herausforderung für Openai und Googles Dominanz darstellen könnte.
D.A. Davidson Analyst Gil Luria kommentierte Reuters : „Die Wichtigkeit des Deepseek-Durchbruchs besteht nicht darin, die chinesischen Nachrichten genau zu beantworten. Es ist in der Tatsache, dass es jede Frage mit 1/30 der Kosten vergleichbarer AI-Modelle beantworten kann. Die Operationen von Deepseek haben auch die Prüfung von Regulierungsbehörden und Branchenführern in Europa aufgenommen. P>
Wenn sich Deepseek als nicht konform befindet, könnte er rechtliche Herausforderungen oder Beschränkungen für die Verfügbarkeit in europäischen Märkten stellen. Die KI-Modelle von Deepseek unter Berufung auf Sicherheitsbedenken hinsichtlich potenzieller Datenschutzrisiken und dem Umgang mit sensiblen Informationen durch Chatbot übereinstimmen mit einem breiteren Trend der US-Verteidigungsagenturen, um die Verwendung von AI-Tools zu beschränken, die außerhalb des westlichen Regulierungsrahmens entwickelt wurden. P> Microsofts Beteiligung an Deepseek wurde ebenfalls unter die Lupe genommen. Trotz der anhaltenden Bedenken hinsichtlich der Genauigkeit und der potenziellen Sicherheitsrisiken des Chatbot hat Microsoft Deepseek R1 in seine Azure AI Foundry-Plattform integriert.
In der Zwischenzeit hat OpenAI eine interne Untersuchung eingeleitet, ob Deepseek nicht ordnungsgemäß auf OpenAIs API-Daten zugegriffen hat, um seine Modelle zu trainieren. Microsoft Security-Forscher hatten ungewöhnliche Spikes im OpenAI-API-Verkehr entdeckt, das aus von China verknüpften Entwicklerkonten stammt und Bedenken hinsichtlich der Verwendung nicht autorisierter Daten aussprach. OpenAI hat angegeben, dass es die API-Nutzungsmuster überwacht und bereits strengere Richtlinien implementiert hat, um die Extraktion der großräumigen Daten zu verhindern. Trotz seiner Mängel hat Deepseek als Konkurrent im AI-Chatbot-Raum erhebliche Aufmerksamkeit gezogen. Sein kostengünstiges Modell macht KI für eine breitere Benutzerbasis zugänglicher, aber seine Zuverlässigkeit bleibt ein zentrales Problem.
Während der Chatbot weiterhin neue Benutzer anzieht, wirft seine schlechte Genauigkeitsbewertung und Schwachstellen, um Fehlinformationen zu bewerten spiegelt breitere Spannungen in der globalen KI-Rasse wider, insbesondere wenn China und die Vereinigten Staaten um die Dominanz in der Forschung für künstliche Intelligenz konkurrieren.
Es wird interessant sein zu sehen, wie Deepseek diese Bedenken in den kommenden Monaten angeht, insbesondere, ob es seine Genauigkeit verbessert, seine Trainingsdaten aktualisiert und seine Schutzmaßnahmen vor Fehlinformationen stärkt. Bis dahin kann der Anstieg der Beliebtheit weiterhin durch Fragen zu ihrer Glaubwürdigkeit und dem potenziellen Einfluss auf die globalen Informationsflüsse überschattet werden.