Openai implementerer en stor sikkerhetsoverhaling for å beskytte sin åndsverk mot bedriftsspionasje, et trekk som angivelig er akselerert av bekymringer over rivaliserende AI-firmaer. The clampdown follows persistent allegations that Chinese competitor DeepSeek improperly used OpenAI’s models for training.
This internal fortification, detailed in a July 7 report from the Financial Ganger inkluderer begrensende personalets tilgang til sensitive prosjekter og legger til biometriske kontroller. Flyttingen kommer ettersom DeepSeek står overfor et potensielt forbud i Tyskland og intens granskning fra amerikanske lovgivere, og fremhever en eskalerende teknisk rivalisering som truer med å omforme det konkurrerende landskapet for generativ AI. //h2> openai forsterker sin digital
openi. rundt de mest verdifulle eiendelene. Selskapet isolerer angivelig proprietær teknologi på frakoblet datasystemer, et betydelig skritt for å forhindre ekstern uautorisert tilgang fra sofistikerte statlige aktører.
For ytterligere å sikre sine fysiske lokaler, distribuerer selskapet biometriske tilgangskontroller, og krever at ansatte skanner fingeravtrykkene sine for å gå inn i visse områder. Dette er kombinert med en”nekt-for-default”internettpolitikk, som blokkerer alle eksterne tilkoblinger med mindre de mottar eksplisitt, sak til sak godkjenning.
Denne svingningen fra rent digitale forsvar til robust fysiske og operasjonelle sikkerhetssignaler et nytt nivå av forsiktighet i Silicon Valley. Disse tiltakene representerer en dramatisk opptrapping, og beveger seg utover standard cybersecurity til en holdning som er mer vanlig i nasjonal sikkerhet eller forsvarskontrakter, enten det Selskapet har formelt anklaget sin rival for å misbruke sine tjenester i strid med vilkårene. I en uttalelse til en amerikansk husutvalg erklærte Openai, “Deepseek-ansatte omgått rekkverk i Openais modeller for å hente ut resonnementutganger, som kan brukes i en teknikk kjent som‘ destillasjon ’for å fremskynde utviklingen av avansert modell, involverer en ny modell.
denne prosessen, kjent som Distillation, involverer en ny modell. Praksisen er svært kontroversiell, ettersom den ikke bare bryter med vilkårene for store AI-leverandører, men også undergraver de enorme FoU-investeringene som kreves for å bygge grunnleggende modeller.
Anklagene støttes av eksterne funn. En studie fra mars 2025 av rettsmedisinske analysefirma CopyLeaks fant at DeepSeek R1s produksjon delte en stilistisk kamp på 74,2% med ChatGPT. Dette antydet at DeepSeek-modeller hadde lært mye fra Openais systemer.
Mønsteret med mistanke fortsatte inn i juni 2025, da nye påstander dukket opp om at DeepSeek også kan ha brukt utganger fra Googles Gemini AI for å trene sin oppdaterte R1-0528-modell. Selv om de er vanskelige å bevise definitivt, har de tilbakevendende likhetene drevet bransjeomfattende debatt om AI-etikk.
U.S. House Committee-rapporten på DeepSeek la til ytterligere vekt, og påstår at DeepSeek Personnel”infiltred U.S. U.S. U.S. U.S. U.S. U.S. U.S.-modell.pdf”Target=”Target. Aliaser”å utføre destillasjon .
Komiteens leder John Moolenaar hevdet,”Deepseek er ikke bare en annen AI-app-det er et våpen i det kinesiske kommunistpartiets arsenal, designet for å spionere på amerikanere, stjele vår teknologi og undergrave amerikansk lov.”Rapporten hevder appen trakter brukerdata til PRC-servere via infrastruktur knyttet til statseid China Mobile og håndhever CCP-sensur, basert på undersøkelsen.
Presset er også montert i Europa. 27. juni ba Berlins databeskyttelsesmyndighet om at Apple og Google fjerner DeepSeek-appen fra tyske appbutikker. Den merket appen”ulovlig innhold”i henhold til Digital Services Act (DSA), et strategisk trekk som setter onus på plattformene.
Regulatorens handling er basert på tiltalen som deepseek ulovlig overfører brukerdata til Kina, og krenker EUs GDPR. Berlins kommisjonær Meike Kamp forklarte kjernespørsmålet er at brukere i Kina mangler”rettskraftige rettigheter og effektive rettsmidler… garantert i EU”som er standard i EU.
Denne bekymringen er ikke bare teoretisk. Cybersecurity-firmaet Feroot bekreftet disse dataoverføringsrisikoene, med sin administrerende direktør Ivan Tsarynny og bemerket at de observerte “direkte koblinger til servere og selskaper i Kina som er under regjeringskontroll” når de analyserer appens nettverkstrafikk.
Disse ytre krisene er forsterket av interne problemer. Lanseringen av DeepSeeks etterlengtede neste generasjons R2-modell er nå”på ubestemt tid stoppet”,