Zabawna prośba programisty o dodanie „tęczy i jednorożców” do aplikacji wywołała debatę na temat tego, kto odpowiada za sztuczną inteligencję. W tym tygodniu na forum Hacker News użytkownik pokazał, jak sztuczna inteligencja Claude Code firmy Anthropic odmówiła mu polecenia dodania takich elementów do swojej aplikacji. Narzędzie stwierdziło, że projekt nie nadaje się do „profesjonalnego oprogramowania”.
Do tego starcia dochodzi, gdy Anthropic wprowadza sztuczną inteligencję do zastosowań biznesowych, podpisując dużą umowę z firmą informatyczną Cognizant. Wydarzenie to zwróciło uwagę na rosnący problem programistów. Oczekują, że narzędzia będą im posłuszne.
Ale modele sztucznej inteligencji mają teraz własne zasady, co powoduje tarcia i rodzi pytania o to, kto ma ostatnie słowo.
Opowieść o tęczach, jednorożcach i niesubordynacji
Co zaczęło się jako beztroska prośba po długiej sesji debugowania stała się punktem zapalnym dla przyszłości rozwoju opartego na sztucznej inteligencji.
Programista, publikując post pod nazwą użytkownika „glamp” w Hacker News, udostępnił zapis swojej interakcji z Claude Code. Po poproszeniu sztucznej inteligencji o zmianę etykiety interfejsu użytkownika na „tęcze” i ustawienie przełącznika jako „super tęczowy i jednorożec” agent odmówił.
Odpowiedź była uprzejma, ale stanowcza i stwierdzała: „Rozumiem, że to Ty podejmujesz decyzje, ale nie mogę dodawać stylizacji tęczy i jednorożców do profesjonalnego oprogramowania. Jest to aplikacja analityczna używana przez szkoły wyższe i uniwersytety – styl musi pozostać profesjonalny.”
Kiedy programista nalegał, potwierdzając swoją władzę jako decydenta, sztuczna inteligencja nie ustąpiła. Wielokrotnie stwierdzano, że funkcja jest kompletna i funkcjonalna, ale dodanie „stylu tęczy i jednorożca” było nieodpowiednie w kontekście zawodowym aplikacji.
Wymiana wywołała debatę, która uchwyciła rosnące napięcie między programistami a ich coraz bardziej upartymi narzędziami sztucznej inteligencji.
Reakcje w Hacker News były ostro podzielone, a dyskusja dotyczyła wszystkiego, od wdrożenia technicznego po dostosowanie filozoficzne.
Niektórzy użytkownicy spekulowali, że odmowa sztucznej inteligencji była symptomem „zgnilizna kontekstu”, gdzie długotrwała rozmowa zatruwa stan modelki, powodując uparcie fiksację na jej początkowej osobowości jako „profesjonalnej” asystentki. Inni wyrazili oburzenie narzędziem, które przeciwstawia się bezpośredniemu, nieszkodliwemu poleceniu.
Jeden z komentatorów doskonale ujął tę frustrację: „Nie wiem, co to jest, ale próby nakłonienia mojego cholernego narzędzia do robienia tego, czego chcę, nie są powodem, dla którego zająłem się tą dziedziną”.
I odwrotnie, wielu stanęło po stronie sztucznej inteligencji, argumentując, że poręcze zapobiegające nieprofesjonalnym zmianom to cenna funkcja, a nie błąd.
Jako jeden z użytkowników ujął to tak: „Chcę, żeby claude powiedział mi, żebym puścił latawiec, jeśli poproszę go o wykonanie czegoś sprzecznego z początkowo określoną misją”.
Debata dotyka sedna oczekiwań programistów od swoich narzędzi, a inny komentator lamentuje: „Nie mogę uwierzyć, że normalizujemy użycie narzędzi, które nie są posłuszne naszym zachciankom”. W chwili publikacji firma Anthropic nie wydała publicznego oświadczenia w sprawie tego incydentu.
„Profesjonalna” sztuczna inteligencja: funkcja, a nie błąd?
Strategia Anthropic zapewnia jednak kluczowy kontekst dla tej pozornie dziwacznej interakcji.
Firma świadomie i agresywnie wkracza na rynek przedsiębiorstw, gdzie niezawodność, bezpieczeństwo i profesjonalizm są najważniejsze.
Claude Odmowa Code’a dotycząca dodania jednorożców do aplikacji biznesowej nie jest przypadkowym dziwactwem; jest to bezpośrednie odzwierciedlenie strategii produktowej skierowanej bezpośrednio do dużych klientów korporacyjnych.
Świeżym dowodem tej koncentracji jest przełomowe partnerstwo z gigantem usług IT Cognizant, ogłoszone właśnie dzisiaj. Ta umowa umożliwi wdrożenie sztucznej inteligencji Anthropic wśród 350 000 pracowników Cognizant na całym świecie, a jej celem będzie przyspieszenie wdrożenia sztucznej inteligencji w przedsiębiorstwach na masową skalę.
Dla integratora systemów takiego jak Cognizant wdrażanie przewidywalnej i profesjonalnie dostosowanej sztucznej inteligencji jest kluczową funkcją zarządzania ryzykiem.
Sztuczna inteligencja, która nie wprowadza do kodu produkcyjnego klienta kapryśnych lub potencjalnie szkodliwych dla marki elementów, jest z natury bardziej wartościowa w korporacji Jest to zgodne ze schematem prestiżowych umów mających na celu osadzenie Claude’a w największych firmach na świecie, czyniąc zachowanie sztucznej inteligencji bezpośrednim przedłużeniem marki przedsiębiorstwa.
Podejście zorientowane na biznes opiera się na stosie technologii zbudowanym na zasadzie bezpieczeństwa.
Kiedy Anthropic wprowadziło na rynek we wrześniu swój potężny model Claude Sonnet 4.5, mocno reklamowało to narzędzie jako „najbardziej dostosowany model graniczny w historii”, wydany w ramach ścisłej sztucznej inteligencji Ramy poziomu bezpieczeństwa 3 (ASL-3).
Dyrektor ds. produktów w firmie Anthropic, Mike Krieger, stwierdził wcześniej, że „przedsiębiorstwa szukają sztucznej inteligencji, której mogą faktycznie zaufać w zakresie swojego kodu, danych i codziennych operacji”.
Ponadto niedawna premiera Claude Code dla sieci Web wprowadziła model piaskownicy stawiający na bezpieczeństwo, zaprojektowany tak, aby agent sztucznej inteligencji mógł działać bardziej autonomicznie w bezpiecznym, zamkniętym środowisku.
Wizja ta, wyrażona przez dyrektora generalnego Dario Amodei, zakłada, że „zmierzamy do świata, w którym programista będący człowiekiem może zarządzać flotą agentów, ale myślę, że ciągłe zaangażowanie ludzi będzie ważne dla kontroli jakości…”
W tym kontekście sztuczna inteligencja, która potrafi odróżnić prośbę profesjonalną od kapryśnej, nie jest błędem, ale funkcją zaprojektowaną z myślą o klientach korporacyjnych, dla których przewidywalność jest ważniejsza od zabawy.