En rettsmedisinsk analyse av CopyLeaks ser ut til å bekrefte tidligere påstander om Kinas DeepSeek AI-laboratorium for å ha hentet ut kunnskap fra Openais modeller i stor skala.
som forskerne fant, at R1’s skrivestil som openai har en chatgpt i 74,2 Destillasjonsteknikker, vekker etiske og juridiske bekymringer for AI-modellutvikling.
I henhold til Disse klassifisererne analyserte subtile stilistiske elementer, inkludert setningsstruktur, ordvalg og fraseringsmønstre. Et sentralt aspekt ved tilnærmingen var det”enstemmige juryen”-systemet”, som krevde at alle tre klassifiserere skulle komme til samme konklusjon før de kom med en klassifisering. Denne minimerte feil og ga svært pålitelige resultater, og oppnådde en 99,88% Precision-rate med en falsk-positiv rate på bare å skille deg fra en penning fra å være en annen. avslører at 74,2% av DeepSeeks tekst deler et stilistisk fingeravtrykk med Openais modeller, et nivå av likhet som ikke er funnet i andre AI-systemer som er testet. Undersøkelse
Microsoft, Openais største investor, har integrert DeepSeek-R1 i sin Azure AI Foundry, noe som gjør det tilgjengelig for utviklere over hele verden. Både Openais eksklusivitet og DeepSeek tilgjengelighet. Hvis Openai bestemmer at DeepSeek ble trent ved å bruke sine data uten tillatelse, kan Microsoft møte press for å vurdere sin støtte til modellen. Markedsvirkning: NVIDIAs fremvekst på 593 milliarder dollar har hatt økonomiske reperkrupper. Kort tid etter fremveksten, tapte Nvidia midlertidig 593 milliarder dollar i markedsverdi, ettersom investorene revurderte etterspørselen etter høyytelses-GPU-er.
DeepSeeks evne til å generere AI-drevne svar med lavere beregningskostnader som er opptatt av at AI-opplæringen til mer effektive modeller. NVIDIA er fortsatt den ledende leverandøren av AI-brikker, DeepSeeks tilnærming kan indikere et skifte i hvordan selskaper prioriterer kostnadseffektivitet fremfor rå beregningskraft, noe som potensielt endrer markedsforventninger for AI-modellutvikling.
Openais nylig utgitte GPT-4.5-modellpoeng også i den retningen. GPT-4.5 ble bygget på det gamle treningsparadigmet for å gradvis øke mengden treningsdata og har blitt funnet underpresterende andre modeller som legger vekt på resonnement tilnærminger som blanding-av-eksperter og tankekjed
En fersk NewsGuard-studie fant at DeepSeek-R1 mislyktes med 83% av faktiske nøyaktighetstester, og rangerte den blant de minst pålitelige AI-modellene som ble gjennomgått. Brukere rapporterte tilfeller av uriktige eller villedende svar, noe som vakte bekymring for modellens pålitelighet for kritiske applikasjoner.
Videre fant studien at DeepSeek’s output ofte er på linje med kinesiske regjeringsfortellinger, selv i ikke-politiske spørsmål. Modellens tilsynelatende skjevhet, kombinert med dens faktiske unøyaktigheter, har ført til spekulasjoner om hvorvidt den ble trent med statlige godkjente datasett, noe som ytterligere kompliserer sin troverdighet i internasjonale markeder.
Som et resultat har Politicity Relues R1 1776, en open-source AI-modell som er bygget på DeepSeek Reles the Excessing Excessing Excessing Excessing Excessing Excessing Excessing Excessing Excessing Excessing Excessing Excessing. Temaer.
DeepSeek er utdatert og lett å jailbreak
En annen utgave av DeepSeek R1 er at kunnskapsbasen fremstår som utdatert, da den ofte siterer før-2024 hendelser som om de er aktuelle. Dette vekker bekymring for om modellen blir aktivt vedlikeholdt, eller om treningsdataene er begrenset av eksterne begrensninger.
Sikkerhetsvurderinger har avdekket sårbarheter i DeepSeek-R1s sikkerhetstiltak. En Palo Alto Networks-studie fant at modellens sikkerhetstiltak mislyktes i alle jailbreak-forsøkene sine, noe I motsetning til Openais ChatGPT, som har gjennomgått flere sikkerhetsoppdateringer, ser det ut til at DeepSeek mangler sammenlignbare forretninger for innholdsmateriell.
U.S. Lovgivere og europeiske regulatorer retter seg mot DeepSeek
Bekymringene rundt DeepSeek har utløst svar fra beslutningstakere i både USA og Europa. I Washington vurderer lovgivere et forslag om å forby DeepSeek AI fra føderale byråer, med henvisning til sikkerhetsrisiko og bekymring for dets bånd til Kina.
Tjenestemenn bekymrer seg for at dens sårbarheter kan utnyttes for å ha blåttkampanjer eller uautorisert datainnsamling, og øker nasjonale sikkerhetsinnlysninger.
p> p> p> p> Bruk. Avgjørelsen følger bredere statsledet innsats for å regulere utenlandske AI-modeller midt i bekymring for personvern av data og potensielle cybersecurity-trusler.
I Europa har gransking fokusert på databeskyttelse. Italias databeskyttelsesmyndighet har startet en undersøkelse av om DeepSeek overholder GDPR. Hvis AI-modellen viser seg å behandle data på måter som bryter EUs personvernlovgivning, kan den møte betydelige driftsbegrensninger i regionen.
Kinas AI-utvidelse og rush for NVIDIAs H20-chips /
DeepSeeks utvikling er i en bredere geop, hvor a-teknologien er en bredt Bekymringer.
Når USA strammer eksportkontrollene på høyytelsesbrikker, har kinesiske selskaper sikret så mange AI-prosessorer som mulig. DeepSeek er blant firmaene som har bidratt til en bølge i etterspørselen etter NVIDIAs H20-prosessorer, en av få AI-brikker som fremdeles er tilgjengelige for eksport til Kina.
Begrensningene har tvunget kinesiske AI-utviklere til å tilpasse, og potensielt stole mer på optimalisert programvareffektivitet i stedet for maskinvare-akselerasjon. Deepseeks vektlegging av å oppnå høy ytelse med lavere beregningskrav antyder et skifte i strategi for å jobbe innenfor disse begrensningene.
DeepSeek-løp for å gi ut R2-modellen midt i å intensivere gransking
Til tross for utfordringene, akselererer DeepSeek sin AI-utviklingstid. Selskapet har valgt å spore utgivelsen av R2-modellen, og flyttet opp lanseringsplanen i et forsøk på å opprettholde sitt fart i AI-løpet.
Denne beslutningen antyder at DeepSeek prioriterer markedets tilstedeværelse, selv om bekymring for dets porsjoner, kan du være en sikkerhetsoppgave. som Openai, Google og Alibaba. Imidlertid, hvis den nye modellen lider av de samme svakhetene som R1, inkludert faktiske unøyaktigheter og sikkerhetsgap, kan det møte motstand i vestlige markeder.
Fremtiden til AI-etikk, sikkerhet og regulering
DeepSeek Controversy. Etter hvert som AI-modeller blir mer sofistikerte, blir spørsmål om hvordan de utvikles-og om de er avhengige av data hentet fra konkurrenter-å bli sentrale i diskusjoner om AI-styring.
Hvis Openai formelt konkluderer med at dens selskaper ble brukt i DeepSeek’s Training. Åpenhet i AI-opplæringsdatasett og muligens juridiske konsekvenser for selskaper som er funnet å ha utnyttet konkurrentgenererte data uten autorisasjon.
Regulatorer vil sannsynligvis også innføre strengere etterlevelsesmål på AI-modeller som opererer i større markeder. Med granskning fra amerikanske lovgivere og europeiske regulatorer som øker, kan AI-firmaer snart møte økt tilsyn med datapersonvern, sikkerhet og innholdsmoderasjon.