openai verkar förbereda sig för att införa ett betydande nytt hinder för utvecklare som vill ha tillgång till dess mest kraftfulla framtida AI-modeller via API: ett potentiellt krav för organisationer att genomgå identitetsverifiering med hjälp av regeringsutgivna ID: er.
detaljer som kommer från en OpenAI supportsida Förra veckan beskriva en”verifierad organisation”-process, inramad av företaget som ett nödvändigt steg för att motverka missbruk och främja ansvarsfull AI-distribution. OpenAI suggests this targets a “small minority”intentionally violating its usage policies, aiming to “mitigate unsafe use of AI while continuing to make advanced models available to the broader developer community.”
This verification links an authorized individual’s personal government ID to their organization’s API use, with the stipulation that each ID can only validate one organization every 90 days, and eligibility isn’t guaranteed for all applicants, väcker frågor om de specifika kriterierna.
Det föreslagna systemet genererar redan diskussion bland utvecklare online. Concerns center on the added operational friction, the privacy considerations of submitting government identification, the potential exclusion of users in regions outside OpenAI’s list of supported API countries, and broader skepticism about whether the primary motivation is purely safety or also encompasses user tracking and enhanced control over its platform access, especially given past actions like the API block in China or investigations into alleged data misuse by DeepSeek and others.
New Models Could Trigger New Controls
This potential verification layer surfaces just as OpenAI prepares for what sources suggest is an imminent release of new AI models – the very systems likely to fall under this stricter access rule, perhaps Understrykning av tidpunkten för policyn avslöjar. Nya lanseringar kan hända så snart som den här veckan, inklusive GPT-4.1 som en uppdatering av sin multimodala modell GPT-4O, tillsammans med specialiserade resonemangsmodeller som utsetts till O3, O4-Mini och O4-Mini-High. Announcing a “Change of plans,”Altman prioritized the release of the o3 and o4-mini models “probably in a couple of weeks,”while pushing the debut of the much-anticipated GPT-5 back by “a few months.”
He indicated a desire to “decouple reasoning models and chat/completion models”and tweeted enthusiasm for o3’s internal performance, suggesting the GPT-5 delay would allow the company “to make GPT-5 mycket bättre än vi ursprungligen men [t].”Detta vände en plan från februari 2025 för att potentiellt fälla O3: s förmågor till GPT-5.
Behovet av distinkta resonemangsmodeller var uppenbart även efter slutet av februari-lanseringen av GPT-4,5, som openai’s Own Att berätta för de finansiella tiderna ,”Att inte göra sådana tester kan betyda OpenAI och det andra AI-företaget är underskattade de värsta riserna. Oro uppstod också om testning av mellanliggande modellversioner eller kontrollpunkter istället för den slutliga koden som skickades till allmänheten.”Det är dålig praxis att släppa en modell som skiljer sig från den du utvärderade,”en före detta teknisk anställd som nämns till Ft.
oenai’s chef för säkerhetssystem, Johannes heidecke, motverkade dessa punkter, hävdar,”vi har en bra balans mellan hur snabbt vi rör oss och hur grundligt vi är,”attribut hastighet till automatisering och statliga tester var”vi har en bra balans mellan hur snabbt vi rör oss och hur grundligt vi är,”attribut hastighet till automatisering och statliga tester var”vi har en bra balans mellan hur snabbt vi rör oss och hur grundligt vi är,”attribut hastighet till automatisering och stating testade checkp-kontroller var”i grunden”till slutliga relationer. > interna spänningar och branschbakgrund
Denna uppenbara friktion mellan utvecklingshastighet och säkerhetsförsiktighet är inte ett nytt territorium för OpenAI. Internal disagreements were underscored by the May 2024 departure of Jan Leike, then co-lead of the long-term risk-focused Superalignment team, who publicly stated that “safety culture and processes have taken a backseat to shiny products.”
Adding another dimension to the company’s internal dynamics, former OpenAI employees filed an amicus brief on April 11th supporting Elon Musk’s lawsuit against the company. The brief argues OpenAI’s shift toward a capped-profit structure deviates from its founding non-profit mission, potentially impacting safety commitments and resource allocation.
The potential ID verification policy unfolds as competitors make varied public gestures toward safety and transparency, such as Anthropic detailing an interpretability framework (though the company also quietly removed some prior voluntary safety pledges) and Google DeepMind proposing a global AGI-säkerhetsstruktur. This occurs against a backdrop of nascent regulation like the EU’s AI Act, ongoing discoveries of model vulnerabilities and jailbreaking techniques, and OpenAI’s own acknowledged capacity constraints which could potentially affect service stability Under nya utrullningar.