OpenAI setzt eine große Sicherheitsüberarbeitung um, um sein geistiges Eigentum vor Unternehmensspionage zu schützen. Ein Schritt beschleunigt sich Berichten zufolge durch Bedenken hinsichtlich der Konkurrenz von KI-Unternehmen. Der Klemme folgt den anhaltenden Vorwürfen, dass der chinesische Konkurrent Deepseek OpenA-Modelle für das Training nicht ordnungsgemäß verwendet hat. Times umfasst die Begrenzung des Zugangs der Mitarbeiter zu sensiblen Projekten und das Hinzufügen von biometrischen Kontrollen. Der Schritt kommt, als Deepseek vor einem potenziellen Verbot von Deutschland und einer intensiven Prüfung der US-amerikanischen Gesetzgeber ausgesetzt ist und eine eskalierende technische Rivalität hervorhebt, die die Wettbewerbslandschaft für generative AI droht. rund um das wertvollste Vermögen. Das Unternehmen isoliert Berichten zufolge proprietäre Technologie in Offline-Computersystemen, ein bedeutender Schritt zur Verhinderung des nicht autorisierten Zugangs von ausgefeilten staatlichen Schauspielern. Das unterteilt das Wissen über sensible Algorithmen und neue Produkte. Während der Entwicklung seines O1-Modells konnten beispielsweise nur verifizierte Teammitglieder, die in das Projekt gelesen worden waren, es in gemeinsamen Büroräumen besprechen. Dies ist mit einer Internet-Richtlinie „Deny-by-Default“ verbunden, die alle externen Verbindungen blockiert, es sei denn, sie erhalten eine explizite Genehmigung von Fall zu Fall. Diese Maßnahmen repräsentieren eine dramatische Eskalation, die über die Standard-Cybersicherheit hinaus zu einer Haltung, die in der nationalen Sicherheit oder Verteidigung häufiger häufiger aus externen Hackern oder internen Bedrohungen häuft. Das Unternehmen hat seinen Rivalen offiziell vorgeworfen, seine Dienste unter Verstoß gegen seine Bedingungen zu missbrauchen. In einer Erklärung an ein US-Hauskomitee erklärte OpenAI: „Die Mitarbeiter von Deepseek haben die Leitplanken in OpenAIs Modellen umgehen, um Argumentationsausgaben zu extrahieren, die in einer Technik als„ Destillation “verwendet werden können, um die Entwicklung fortgeschrittener Modell-Denkfunktionen zu beschleunigen. Die Praxis ist sehr umstritten, da sie nicht nur gegen die Nutzungsbedingungen der wichtigsten KI-Anbieter verstößt, sondern auch die massiven F & E-Investitionen untergräbt, die für den Bau von Grundmodellen erforderlich sind. Eine Studie im März 2025 des forensischen Analyseunternehmens Copyleaks ergab, dass die Leistung von Deepseek R1 eine 74,2% ige stilistische Übereinstimmung mit ChatGPT teilte. Dies deutete darauf hin, dass die Modelle von Deepseek ausgiebig aus OpenAIS-Systemen gelernt hatten. Die wiederkehrenden Ähnlichkeiten sind zwar schwer definitiv zu beweisen, und haben die branchenweite Debatte über die Ethik angeheizt. href=”https://selectcommiteTeontheccp.house.gov/sites/evo-subsites/SelectCommiteTeEonthecp.house Destillation durchführen . Der Bericht behauptet, dass die App-Benutzer-Benutzerdaten über Infrastrukturen, die mit staatseigenem Mobilgeräten in China verbunden sind, an PRC-Server und die CCP-Zensur erzwingen, basierend auf der Untersuchung. Am 27. Juni forderte Berlins Datenschutzbehörde, dass Apple und Google die Deepseek-App aus deutschen App Stores entfernen. Es wurde die App mit”rechtswidrigen Inhalten”im Rahmen des leistungsstarken Digital Services Act (DSA) bezeichnet, ein strategischer Schritt, der die Verantwortung auf den Plattformen setzt. Berlins Kommissar Meike Kamp erklärte, dass die Nutzer in China die „durchsetzbaren Rechte und wirksame Rechtsmittel… in der Europäischen Union garantiert“ fehlen, die in der EU Standard sind.
Diese Sorge ist nicht nur theoretisch. Das Cybersecurity-Unternehmen foloot bestätigte diese Datenübertragungsrisiken, wobei sein CEO Ivan Tsarynny feststellte, dass sie”direkte Verbindungen zu Servern und Unternehmen in China unter staatlichen Kontrolle”bei der Analyse des Netzwerkverkehrs der App. Der Start des mit Spannung erwarteten R2-Modells von Deepseek ist nun „auf unbestimmte Zeit aufgehoben“.
Die Verzögerung stammt aus einer Zwei-Front-Krise: interne Leistungsunzufriedenheit und eine Hardware-Hungersnot, die von US-Exportkontrollen für wichtige NVIDIA-AI-Chips erstellt wurde. Dies hat eine bedeutende Öffnung für Konkurrenten geschaffen, um voranzukommen, während Deepseek humpelt.