Solicitarea amuzantă a unui dezvoltator de a adăuga „curcubee și unicorni” la o aplicație a stârnit o dezbatere asupra cine este responsabil de AI. Săptămâna aceasta, pe forumul Hacker News, un utilizator a împărtășit modul în care agentul de codificare Claude Code AI de la Anthropic a refuzat comanda de a adăuga astfel de elemente în aplicația sa. Claude Code a susținut că designul nu era potrivit pentru „software profesional”.

Această confruntare vine în timp ce Anthropic își împinge AI pentru uzul de afaceri, semnând un acord important cu firma IT Cognizant. Evenimentul evidențiază o problemă în creștere pentru programatori. Ei se așteaptă ca instrumentele să le asculte.

Dar modelele AI au acum propriile reguli, creând fricțiuni și ridicând întrebări despre cine are ultimul cuvânt.

A Tale, Racoinbo, Unicorns Insubordonare

Ceea ce a început ca o solicitare ușoară după o sesiune lungă de depanare a devenit un punct de referință pentru viitorul dezvoltării bazate pe inteligență artificială.

Un dezvoltator, postând sub numele de utilizator „glamp” pe Hacker News, a distribuit un

IA „profesională”: o caracteristică, nu o eroare?

Strategia lui Anthropic oferă totuși un context crucial pentru această interacțiune aparent bizară.

Compania a executat o împingere deliberată și agresivă a pieței, în care securitatea, agresivitatea și profesionalismul sunt deliberate și agresive. primordial.

Refuzul lui Claude Code de a adăuga unicorni într-o aplicație de afaceri nu este o ciudatenie întâmplătoare; este o reflectare directă a unei strategii de produs care vizează în mod direct clienții corporativi mari.

O dovadă nouă a acestui accent este un parteneriat de referință cu gigantul serviciilor IT Cognizant, anunțat chiar astăzi. Această înțelegere va implementa IA Anthropic la cei 350.000 de angajați ai Cognizant la nivel global, cu scopul de a accelera adoptarea IA a întreprinderii la o scară masivă.

Pentru un integrator de sisteme precum Cognizant, implementarea AI care este previzibilă și aliniată profesional este o caracteristică critică de gestionare a riscurilor.

În mod potențial, o IA care refuză introducerea unui AI într-un potențial. codul de producție al unui client este în mod inerent mai valoros într-un cadru corporativ.

Urmează un model de acorduri de profil înalt concepute pentru a-l îngloba pe Claude în cele mai mari companii din lume, făcând comportamentul AI o extensie directă a mărcii sale de întreprindere.

Powering this business-first abordare este o stivă tehnologică construită pe principiul siguranței.

Un model puternic de Claude. Septembrie, a comercializat puternic instrumentul drept „modelul său de frontieră cel mai aliniat de până acum”, lansat într-un cadru strict AI Safety Level 3 (ASL-3).

Chief Product Officer al Anthropic, Mike Krieger, a declarat anterior că „întreprinderile caută AI în care să aibă încredere în codul lor, în datele lor, în zilele lor.”

Lansarea recentă a Claude Code pentru web a introdus un model de sandboxing pe primul loc în securitate, conceput pentru a permite agentului AI să opereze mai autonom într-un mediu sigur și conținut.

Această viziune, așa cum a exprimat-o CEO-ul Dario Amodei, este una în care „ne îndreptăm către o lume în care un dezvoltator uman poate gestiona o flotă de agenți, dar cred că controlul calității va fi important în continuare…

în acest context, o inteligență artificială care poate distinge între o solicitare profesională și cea capricioasă nu este o eroare, ci o caracteristică concepută pentru a atrage o bază de clienți de întreprindere care prețuiește predictibilitatea în detrimentul jocului.

From Rate Limits to Refusals: A Pattern of Developer Friction

Pentru mulți dezvoltatori, acest nivel de autonomie și mai puțin frustrant se simte ca un AI mai puțin frustrant. limitare.

Incidentul „unicorn” este cel mai recent dintr-o serie de evenimente care evidențiază o frecare tot mai mare între deciziile la nivel de platformă ale Anthropic și așteptările utilizatorilor săi individuali.

Această dinamică a fost pe deplin afișată în timpul verii, când compania s-a confruntat cu o reacție semnificativă pentru impunerea în liniște a limitelor restrictive de utilizare, a anunțat în iulie 2008, Winzerzer a anunțat limitele de utilizare pentru Code. a perturbat fluxurile de lucru și a înfuriat clienții plătitori care au simțit că compania nu este transparentă.

Anthropic a oficializat ulterior politica, explicând că este necesar să se reducă modelele de utilizare extreme și să se asigure sustenabilitatea pe termen lung a serviciului.

Deși raționamentul era solid, lipsa inițială de comunicare a afectat încrederea utilizatorilor. B

Alte controverse privind limita ratei și refuzul unicornului provin din aceeași cauză fundamentală: Anthropic construiește un produs pentru stabilitatea și guvernanța la scară întreprindere, care uneori intră în conflict cu dorința dezvoltatorului individual de a avea un instrument nerestricționat, complet ascultător.

Sub suprafața unei cereri capricioase pentru unicornuri. Modelele AI evoluează de la simple completatori de cod în agenți autonomi, dezvoltatorii trebuie să se confrunte cu o nouă paradigmă. Aceste instrumente nu mai sunt doar instrumente pasive; sunt colaboratori activi, cu propriile reguli încorporate și, se pare, cu propriul sentiment al decorului profesional.

Pentru Anthropic, pariarea viitorului pe întreprindere, un AI care știe când să spună „nu” poate fi cel mai valoros atu – sau principala slăbiciune, în funcție de caz.