Kërkesa argëtuese e një zhvilluesi për të shtuar”ylberë dhe njëbrirësh”në një aplikacion ka ndezur një debat se kush është në krye të AI. Këtë javë në forumin Hacker News, një përdorues tregoi se si agjenti kodues i AI Claude Code i Anthropic refuzoi komandën e tyre për të shtuar elementë të tillë në aplikacionin e tij. Claude Code argumentoi se dizajni nuk ishte i përshtatshëm për”softuerin profesional”.
Kjo përplasje vjen pasi Anthropic e shtyn AI-n e saj për përdorim biznesi, duke nënshkruar një marrëveshje të madhe me firmën e IT Cognizant. Ngjarja nxjerr në pah një problem në rritje për koduesit. Ata presin që mjetet t’i binden atyre.
Por modelet e inteligjencës artificiale tani kanë rregullat e tyre, duke krijuar fërkime dhe duke ngritur pyetje se kush e ka fjalën e fundit.
Tashmë,
Mosbindja
Ajo që filloi si një kërkesë e lehtë pas një sesioni të gjatë korrigjimi është bërë një pikë ndezje për të ardhmen e zhvillimit të fuqizuar nga AI.
Një zhvillues, duke postuar nën emrin e përdoruesit’glamp’në Hacker News, ndau një transkript i ndërveprimit të tyre me Claude Code. Pasi i kërkoi AI të ndryshonte një etiketë UI në”ylber”dhe të bënte një ndërprerës”super ylber dhe njëbrirësh”, agjenti refuzoi.
Përgjigja e tij ishte e sjellshme, por e vendosur, duke thënë:”Unë e kuptoj që ju jeni vendimmarrësi, por nuk mund të shtoj ylber dhe njëbrirësh-ky është një stilim profesional i përdorur nga anacolities dhe universi në softuer. stili duhet të mbetet profesional.”
Kur zhvilluesi këmbënguli, duke pohuar autoritetin e tij si vendimmarrës, AI nuk u dorëzua. Në mënyrë të përsëritur deklarohej se veçoria ishte e plotë dhe funksionale, por shtimi i”stilit të ylberit dhe njëbrirëshit”ishte i papërshtatshëm për kontekstin profesional të aplikacionit.
Shkëmbimi ndezi një debat që kapi tensionin në rritje midis zhvilluesve dhe mjeteve të tyre AI gjithnjë e më të opinionit të tyre.
Reagimet ndaj zbatimit të çdo gjëje prekëse ndaj Hacker-it ishin shumë të ndara nga lajmet tek çdo gjë prekëse ndaj Hacker-it. rreshtimi filozofik.
Disa përdorues spekuluan se refuzimi i AI ishte një simptomë e”kalbjes së kontekstit”, ku një bisedë e gjatë helmon gjendjen e modeles, duke e bërë atë të fiksuar kokëfortë në personalitetin e saj fillestar si një asistent”profesionist”. Të tjerët shprehën zemërim ndaj një mjeti që do të sfidonte një komandë të drejtpërdrejtë dhe të padëmshme.
Një komentues e kapi në mënyrë të përsosur këtë zhgënjim:”Nuk e di se çfarë është, por përpjekja për të nxitur veglat e mia të mallkuara për të bërë atë që dua nuk është arsyeja pse u futa në këtë fushë.”
Në të kundërt, shumë njerëz që parandalojnë ndryshimet parandaluese të inteligjencës artificiale, janë në anën e kundërt. tipar i vlefshëm, jo një defekt.
Siç e tha një përdorues,”Unë dua që Klodi të më thotë të fluturoj një qift nëse i kërkoj të bëjë diçka të kundërt me misionin e deklaruar fillimisht.”
Debati pret thelbin e asaj që zhvilluesit presin nga veglat e tyre, me një komentues tjetër që ankohet,”Nuk mund të besoj se ne jemi normale duke përdorur mjetet tona.”Deri në momentin e publikimit, Anthropic nuk ka lëshuar një deklaratë publike për incidentin.
Inteligjenca artificiale”profesionale”: Një veçori, jo një gabim?
Strategjia e Anthropic, megjithatë, ofron një kontekst vendimtar për këtë ndërveprim në dukje të çuditshëm.
Kompania është degraduar dhe degraduar në treg, ku kompania është degraduar në mënyrë agresive. besueshmëria, siguria dhe profesionalizmi janë parësore.
Refuzimi i Claude Code për të shtuar njëbrirësh në një aplikacion biznesi nuk është një çuditshmëri e rastësishme; është një reflektim i drejtpërdrejtë i një strategjie produkti që synon drejtpërsëdrejti klientët e korporatave të mëdha.
Dëshmia e re e këtij fokusi është një partneritet historik me gjigantin e shërbimeve të IT Cognizant, i shpallur vetëm sot. Kjo marrëveshje do të shpërndajë inteligjencën artificiale të Anthropic për 350,000 punonjësit globalë të Cognizant, duke synuar të përshpejtojë adoptimin e inteligjencës artificiale të ndërmarrjeve në një shkallë masive.
Për një integrues sistemesh si Cognizant, vendosja e AI që është e parashikueshme dhe e përafruar në mënyrë profesionale është një veçori kritike e menaxhimit të rrezikut që refuzon ose refuzon AI-në. Elementet që mund të dëmtojnë markën në kodin e prodhimit të një klienti janë në thelb më të vlefshëm në një mjedis korporate.
Ajo ndjek një model marrëveshjesh të profilit të lartë të krijuar për të futur Claude brenda kompanive më të mëdha në botë, duke e bërë sjelljen e AI një zgjerim të drejtpërdrejtë të markës së saj të ndërmarrjes.
Fuqizimi i këtij parimi të sigurisë së parë të biznesit është një qasje e ndërtuar mbi bazën e teknologjisë.
p> lançoi modelin e tij të fuqishëm Claude Sonnet 4.5 në shtator, ai e tregtoi gjerësisht mjetin si”modelin kufitar më të përafruar deri më tani”, i lëshuar nën një kornizë të rreptë të nivelit 3 të sigurisë AI (ASL-3).
Zyrtari Kryesor i Produkteve të Anthropic, Mike Krieger, ka deklaruar më parë se”ndërmarrjet mund t’i besojnë të dhënat e tyre në të vërtetë AI-në e tyre. operacionet.”
Për më tepër, lansimi i fundit i Claude Code për ueb prezantoi një model të parë të sigurisë sandboxing, i projektuar për të lejuar agjentin e AI të operojë në mënyrë më autonome brenda një mjedisi të sigurt dhe të përmbajtur.
Ky vizion, siç artikulohet nga CEO Dario Amodei, është një vizion ku”ne po shkojmë drejt zhvillimit të një njeriu që mund të mendojë në një botë të vazhdueshme, por një njeri mund të menaxhojë, por një njeri mund të mendojë një botë ku një njeri mund të vazhdojë të menaxhojë, do të jetë i rëndësishëm për kontrollin e cilësisë…”
Në këtë kontekst, një AI që mund të dallojë midis një kërkese profesionale dhe një kërkese të çuditshme nuk është një defekt, por një veçori e krijuar për të tërhequr një bazë të klientëve të ndërmarrjes që vlerëson parashikueshmërinë mbi lojën.
Nga kufijtë e normës deri te refuzimet: Një model i fërkimit automatik të zhvilluesvepër shumë zhvillues AI ndihet më pak si një veçori dhe më shumë si një kufizim zhgënjyes.
Incidenti i”njëbrirëshit”është i fundit në një seri ngjarjesh që nxjerrin në pah një fërkim në rritje midis vendimeve të nivelit të platformës së Anthropic dhe pritshmërive të përdoruesve të tij individualë.
Kjo dinamikë u shfaq plotësisht gjatë verës kur kompania u përball me reagime të rëndësishme për kufizimet e heshtura të kodeve.
Siç raportoi Winbuzzer në korrik, kufizimet e paparalajmëruara ndërprenë fluksin e punës dhe zemëruan klientët që paguanin, të cilët mendonin se kompania nuk ishte transparente.
Anthropic më vonë zyrtarizoi politikën, duke shpjeguar se ishte e nevojshme të frenohen modelet e përdorimit ekstrem dhe të sigurohet qëndrueshmëria afatgjatë e shërbimit.
Ndërsa arsyetimi fillestar i komunikimit ishte i shëndoshë. B
të dy polemikat për kufirin e normës dhe refuzimin e njëbrirëshit burojnë nga i njëjti shkak rrënjësor: Anthropic po ndërton një produkt për stabilitetin dhe qeverisjen në shkallë të ndërmarrjes, i cili ndonjëherë bie ndesh me dëshirën e zhvilluesit individual për një mjet të pakufizuar dhe plotësisht të bindur.
Në sipërfaqen e një kërkese të çuditshme të një softueri unicorn
shtrohet një kërkesë e çuditshme për zhvillimin e një softueri. Modelet e AI evoluojnë nga plotësuesit e thjeshtë të kodit në agjentë autonomë, zhvilluesit duhet të përballen me një paradigmë të re. Këto mjete nuk janë më vetëm instrumente pasive; ata janë bashkëpunëtorë aktivë me rregullat e tyre të integruara dhe, me sa duket, ndjenjën e tyre të dekorit profesional.
Për Anthropic, vënia në bast e së ardhmes së saj në ndërmarrje, një AI që di kur të thotë”jo”mund të jetë pasuria e saj më e vlefshme-ose është dobësia kryesore, në varësi të rastit të përdorimit.