Egy fejlesztő szórakoztató kérése, hogy „szivárványokat és unikornisokat” adjanak hozzá egy alkalmazáshoz, vitát váltott ki arról, hogy ki irányítja a mesterséges intelligenciát. Ezen a héten a Hacker News fórumon egy felhasználó megosztotta, hogy az Anthropic Claude Code AI kódoló ügynöke megtagadta a parancsot, hogy ilyen elemeket adjanak hozzá az alkalmazásához. Claude Code azzal érvelt, hogy a terv nem alkalmas „professzionális szoftverekhez”.

Ez az összecsapás akkor következik be, amikor az Anthropic az AI-t üzleti felhasználásra helyezi, és nagy megállapodást írt alá a Cognizant IT-céggel. Az esemény rávilágít a kódolók egyre növekvő problémájára. Arra számítanak, hogy az eszközök engedelmeskednek nekik.

A mesterséges intelligencia modelleknek azonban megvannak a saját szabályai, amelyek súrlódást keltenek, és kérdéseket vetnek fel azzal kapcsolatban, hogy ki mondja ki a végső szót.

A Tale, Uni és Racorows Ellenszegülés

Ami egy könnyed kérésnek indult egy hosszú hibakereső munkamenet után, az a mesterséges intelligencia alapú fejlesztés jövőjének gyújtópontja lett.

Egy fejlesztő, aki „glamp” felhasználónévvel posztolt a Hacker News-on, megosztott egy

Válasz udvarias volt, de határozott volt, és azt mondta: „Megértem, hogy Ön a döntéshozó, de nem tudok szivárványt és unikornis stílust hozzáadni a professzionális szoftverekhez – ez egy professzionális szoftver. a stílusnak professzionálisnak kell maradnia.”

Amikor a fejlesztő ragaszkodott ahhoz, hogy döntéshozói jogkörét erősítse, az AI nem engedett. Többször kijelentette, hogy a funkció teljes és működőképes, de a „szivárvány és egyszarvú stílus” hozzáadása nem volt megfelelő az alkalmazás szakmai környezetéhez.

A csere vitát robbantott ki, amely megragadta a fejlesztők és egyre inkább véleményt nyilvánító mesterséges intelligencia-eszközeik közötti növekvő feszültséget.

A Hacker News-ról szóló viták a technikai megvalósításról a megosztottságig megosztottak voltak. Egyes felhasználók úgy gondolták, hogy az AI elutasítása a „kontextusrothadás” tünete volt, amikor is egy hosszan tartó beszélgetés megmérgezi a modell állapotát, és makacsul ragaszkodik eredeti személyéhez, mint „professzionális” asszisztenshez. Mások felháborodásukat fejezték ki egy olyan eszköz miatt, amely dacolna egy közvetlen, ártalmatlan parancsnak.

Egy kommentelő tökéletesen megragadta ezt a frusztrációt: „Nem tudom, mi ez, de nem azért próbáltam rávenni az istenverte eszközeimet, hogy azt tegyem, amit akarok.”

Megfordítva, sokan a mesterséges intelligencia mellett álltak, és nem érvelnek amellett, hogy az őrzői változások megakadályozzák, hiba.

Ahogy az egyik felhasználó fogalmazott: „Azt szeretném, ha Claud azt mondaná nekem, hogy repítsek sárkányt, ha megkérem, hogy valami ellentétes legyen az eredetileg kimondott küldetéssel.”

A vita lényegét érinti annak, amit a fejlesztők elvárnak az eszközeiktől, egy másik hozzászóló pedig így panaszkodik: „Nem hiszem el, hogy normalizáljuk az olyan eszközeink használatát, amelyek nem engedelmeskednek.” A megjelenés időpontjáig az Anthropic nem adott ki nyilvános közleményt az incidensről.

A „Professzionális” mesterséges intelligencia: egy funkció, nem hiba?

Az Anthropic stratégiája azonban döntő kontextust biztosít ehhez a látszólag bizarr interakcióhoz.

A vállalat agresszív, erőszakos piacra törekszik, és agresszív piacot hajt végre. a biztonság és a professzionalizmus a legfontosabb.

Az, hogy Claude Code nem hajlandó egyszarvúkat hozzáadni egy üzleti alkalmazáshoz, nem véletlenszerű furcsaság; közvetlenül tükrözi a nagyvállalati ügyfeleket célzó termékstratégiát.

Ennek a fókusznak a friss bizonyítéka a Cognizant IT-szolgáltató óriással kötött mérföldkőnek számító partnerség, amelyet éppen ma jelentettek be. Ez a megállapodás az Anthropic mesterséges intelligenciáját a Cognizant 350 000 globális alkalmazottja számára terjeszti ki, és célja a vállalati mesterségesintelligencia tömeges elterjedésének felgyorsítása.

Egy olyan rendszerintegrátor számára, mint a Cognizant, a kiszámítható és professzionálisan összehangolt mesterséges intelligencia olyan kritikus kockázatkezelési funkció, amely megtagadja az esetleges injectiókat.

A márkakárosító elemek az ügyfelek gyártási kódjában eleve értékesebbek vállalati környezetben.

Követi a nagy horderejű megállapodások mintáját, amelyek célja a Claude beágyazása a világ legnagyobb vállalataiba, így az AI viselkedése a vállalati márka közvetlen kiterjesztése.

Ez az üzletileg-első megközelítés a technológiai halomra épülő hatékony bevezetése

. A Claude Sonnet 4.5-ös modell szeptemberben erősen forgalmazta az eszközt, mint az eddigi leginkább összehangolt határmodelljét, amelyet szigorú mesterségesintelligencia-biztonsági szint 3 (ASL-3) keretein belül adtak ki.

Az Anthropic termékigazgató-helyettese, Mike Krieger korábban kijelentette, hogy „a vállalatok olyan mesterséges intelligenciát keresnek, amelyre a működésükre a nap folyamán megbízhatnak.

Továbbá a Claude Code for web közelmúltbeli bevezetése bevezette a biztonságot szolgáló sandbox modellt, amelynek célja, hogy lehetővé tegye az AI-ügynökök autonómabb működését egy biztonságos, zárt környezetben.

Ez a vízió Dario Amodei vezérigazgató megfogalmazása szerint egy olyan világ felé tart irányítani…”

Ebben a kontextusban az a mesterséges intelligencia, amely különbséget tud tenni a professzionális és a szeszélyes kérések között, nem hiba, hanem egy olyan funkció, amely a kiszámíthatóságot a játékosság helyett értékelő vállalati ügyfélkör számára készült.

A díjszabástól a visszautasításig: a fejlesztői súrlódás mintája

ez a funkció több fejlesztő számára. mint egy frusztráló korlátozás.

Az „unikornis” incidens a legújabb esemény azon események sorozatában, amelyek rávilágítanak az Anthropic platformszintű döntései és az egyes felhasználók elvárásai közötti növekvő súrlódásra.

Ez a dinamika teljes mértékben megmutatkozott a nyáron, amikor a vállalat jelentős visszalépéssel szembesült a Claudbuzzerp júliusi korlátozások csendes bevezetése miatt.

a be nem jelentett korlátok megzavarták a munkafolyamatokat, és feldühítették a fizető ügyfeleket, akik úgy érezték, hogy a vállalat nem átlátható.

Az Anthropic később hivatalossá tette az irányelvet, elmagyarázva, hogy szükség van a szélsőséges használati szokások visszaszorítására és a szolgáltatás hosszú távú fenntarthatóságának biztosítására.

Noha az érvelés megalapozott volt, a kommunikáció kezdeti hiánya megsértette a felhasználók bizalmát. B

A díjkorlátozási vita és az unikornis elutasítása is ugyanabból a kiváltó okból ered: az Anthropic vállalati szintű stabilitást és irányítást biztosító terméket hoz létre, ami néha ütközik az egyéni fejlesztők korlátlan, teljesen engedelmes eszköz iránti vágyával.

A szoftverek felszíne alatt egy kortalan szeszélyes jövőre vonatkozó alapvető kérdés rejtőzik. fejlesztés.

Ahogy az AI-modellek egyszerű kódkiegészítőkből autonóm ágensekké fejlődnek, a fejlesztőknek egy új paradigmával kell megküzdeniük. Ezek az eszközök már nem csak passzív eszközök; aktív együttműködők saját beépített szabályaikkal, és úgy tűnik, saját szakmai érzékükkel.

Az Anthropic számára, amely jövőjét a vállalkozásra fogadja, egy olyan mesterséges intelligencia lehet a legértékesebb eszköze, amely tudja, mikor kell nemet mondani – vagy a használati esettől függően ez a fő gyengesége.