Το διασκεδαστικό αίτημα ενός προγραμματιστή να προσθέσει”ουράνια τόξα και μονόκερους”σε μια εφαρμογή έχει πυροδοτήσει μια συζήτηση σχετικά με το ποιος είναι υπεύθυνος για την τεχνητή νοημοσύνη. Αυτή την εβδομάδα στο φόρουμ Hacker News, ένας χρήστης μοιράστηκε πώς ο πράκτορας κωδικοποίησης Claude Code AI της Anthropic αρνήθηκε την εντολή του να προσθέσει τέτοια στοιχεία στην εφαρμογή του. Ο Claude Code υποστήριξε ότι το σχέδιο δεν ήταν κατάλληλο για «επαγγελματικό λογισμικό».

Αυτή η σύγκρουση έρχεται καθώς η Anthropic ωθεί το AI της για επαγγελματική χρήση, υπογράφοντας μια μεγάλη συμφωνία με την εταιρεία πληροφορικής Cognizant. Η εκδήλωση υπογραμμίζει ένα αυξανόμενο πρόβλημα για τους κωδικοποιητές. Περιμένουν τα εργαλεία να τους υπακούουν.

Όμως τα μοντέλα τεχνητής νοημοσύνης έχουν πλέον τους δικούς τους κανόνες, δημιουργώντας τριβές και εγείροντας ερωτήματα σχετικά με το ποιος έχει τον τελευταίο λόγο.

Tags: Ανυπακοή

Αυτό που ξεκίνησε ως ένα αυθόρμητο αίτημα μετά από μια μακρά περίοδο λειτουργίας εντοπισμού σφαλμάτων έχει γίνει σημείο ανάφλεξης για το μέλλον της ανάπτυξης που βασίζεται στην τεχνητή νοημοσύνη.

Ένας προγραμματιστής, που δημοσιεύει με το όνομα χρήστη «glamp» στο Hacker News, μοιράστηκε ένα μεταγραφή της αλληλεπίδρασής τους με τον Claude Code. Αφού ζήτησε από την τεχνητή νοημοσύνη να αλλάξει μια ετικέτα διεπαφής χρήστη σε”ουράνιο τόξο”και να κάνει έναν διακόπτη”super rainbowy and unicorny”, ο πράκτορας αρνήθηκε.

Η απάντησή του ήταν ευγενική αλλά σταθερή, δηλώνοντας:”Καταλαβαίνω ότι είστε ο υπεύθυνος λήψης αποφάσεων, αλλά δεν μπορώ να προσθέσω το rainbow και το unicorn-αυτό είναι μια εφαρμογή που χρησιμοποιείται επαγγελματικά από την αναγνωστική εφαρμογή. το στυλ πρέπει να παραμείνει επαγγελματικό.”

Όταν ο προγραμματιστής επέμεινε, επιβεβαιώνοντας την εξουσία του ως υπεύθυνος λήψης αποφάσεων, η τεχνητή νοημοσύνη δεν υποχώρησε. Δήλωσε επανειλημμένα ότι η δυνατότητα ήταν πλήρης και λειτουργική, αλλά ότι η προσθήκη”στυλ ουράνιου τόξου και μονόκερου”ήταν ακατάλληλη για το επαγγελματικό πλαίσιο της εφαρμογής.

Η ανταλλαγή πυροδότησε μια συζήτηση που κατέγραψε την αυξανόμενη ένταση μεταξύ των προγραμματιστών και των εργαλείων τεχνητής νοημοσύνης τους.

Οι αντιδράσεις ήταν διχασμένες από τις ειδήσεις για την τεχνική εφαρμογή, το άγγιγμα του Hacker. φιλοσοφική ευθυγράμμιση.

Μερικοί χρήστες υπέθεσαν ότι η άρνηση της τεχνητής νοημοσύνης ήταν σύμπτωμα «σήψης του πλαισίου», όπου μια μακροχρόνια συζήτηση δηλητηριάζει την κατάσταση του μοντέλου, καθιστώντας το πεισματικά προσηλωμένο στην αρχική του προσωπικότητα ως «επαγγελματίας» βοηθός. Άλλοι εξέφρασαν την οργή για ένα εργαλείο που αψηφούσε μια άμεση, ακίνδυνη εντολή.

Ένας σχολιαστής κατέγραψε τέλεια αυτή την απογοήτευση:”Δεν ξέρω τι είναι, αλλά η προσπάθεια να πείσω το θεότρελο εργαλείο μου να κάνει αυτό που θέλω δεν είναι ο λόγος που μπήκα σε αυτό το πεδίο.”πολύτιμο χαρακτηριστικό, όχι σφάλμα.

Όπως το έθεσε ένας χρήστης,”Θέλω ο Κλοντ να μου πει να πετάξω έναν χαρταετό αν του ζητήσω να κάνει κάτι αντίθετο με την αρχικά δηλωμένη αποστολή.”

Η συζήτηση περιορίζει τον πυρήνα του τι περιμένουν οι προγραμματιστές από τα εργαλεία τους, με έναν άλλο σχολιαστή να θρηνεί,”Δεν μπορώ να πιστέψω ότι χρησιμοποιούμε τα κανονικά εργαλεία μας.”Μέχρι τη δημοσίευση, η Anthropic δεν έχει εκδώσει δημόσια δήλωση σχετικά με το περιστατικό.

Η «Επαγγελματική» AI: A Feature, Not a Bug;

Η στρατηγική της Anthropic, ωστόσο, παρέχει κρίσιμο πλαίσιο για αυτήν την φαινομενικά περίεργη αλληλεπίδραση.

Η εταιρεία έχει στριμώξει, εκτελεστεί από την αγορά, όπου η εταιρεία έχει στριμώξει, εκτελεστεί σε εκτελεστικό επίπεδο. Η αξιοπιστία, η ασφάλεια και ο επαγγελματισμός είναι πρωταρχικής σημασίας.

Η άρνηση του Claude Code να προσθέσει μονόκερους σε μια επιχειρηματική εφαρμογή δεν είναι μια τυχαία ιδιορρυθμία. είναι μια άμεση αντανάκλαση μιας στρατηγικής προϊόντος που απευθύνεται ακριβώς σε μεγάλους εταιρικούς πελάτες.

Φρέσκα στοιχεία αυτής της εστίασης είναι μια συνεργασία ορόσημο με τον κολοσσό υπηρεσιών πληροφορικής Cognizant, που ανακοινώθηκε μόλις σήμερα. Αυτή η συμφωνία θα διαθέσει το AI της Anthropic στους 350.000 υπαλλήλους της Cognizant παγκοσμίως, με στόχο να επιταχύνει την υιοθέτηση της επιχειρηματικής τεχνητής νοημοσύνης σε μαζική κλίμακα.

Για έναν ενοποιητή συστημάτων όπως το Cognizant, η ανάπτυξη τεχνητής νοημοσύνης που είναι προβλέψιμη και επαγγελματικά ευθυγραμμισμένη είναι μια κρίσιμη δυνατότητα διαχείρισης κινδύνου. Τα στοιχεία που ενδέχεται να βλάψουν την επωνυμία στον κώδικα παραγωγής ενός πελάτη είναι εγγενώς πιο πολύτιμα σε ένα εταιρικό περιβάλλον.

Ακολουθεί ένα μοτίβο συμφωνιών υψηλού προφίλ που έχουν σχεδιαστεί για την ενσωμάτωση του Claude στις μεγαλύτερες εταιρείες του κόσμου, καθιστώντας τη συμπεριφορά του AI μια άμεση επέκταση της εταιρικής επωνυμίας του.

Η ενδυνάμωση αυτής της βασικής αρχής της ασφάλειας της επιχείρησης είναι μια προσέγγιση που βασίζεται στην πρώτη τεχνολογία. κυκλοφόρησε το πανίσχυρο μοντέλο Claude Sonnet 4.5 τον Σεπτέμβριο, κυκλοφόρησε σε μεγάλο βαθμό το εργαλείο ως το «πιο ευθυγραμμισμένο μοντέλο συνόρων» που κυκλοφόρησε στο πλαίσιο αυστηρού πλαισίου AI Safety Level 3 (ASL-3).

Ο Chief Product Officer της Anthropic, Mike Krieger, είχε δηλώσει προηγουμένως ότι «οι επιχειρήσεις μπορούν πραγματικά να εμπιστεύονται τα δεδομένα τους AI. λειτουργίες.”

Επιπλέον, η πρόσφατη κυκλοφορία του Claude Code για τον ιστό εισήγαγε ένα μοντέλο sandboxing για πρώτη φορά στην ασφάλεια, που σχεδιάστηκε για να επιτρέπει στον πράκτορα AI να λειτουργεί πιο αυτόνομα σε ένα ασφαλές, περιορισμένο περιβάλλον.

Αυτό το όραμα, όπως διατυπώθηκε από τον CEO Dario Amodei, είναι ένα όραμα όπου”κατευθυνόμαστε σε έναν κόσμο που συνεχίζει να σκέφτεται έναν άνθρωπο, αλλά μπορεί να σκεφτεί έναν άνθρωπο. θα είναι σημαντικό για τον ποιοτικό έλεγχο…”

Σε αυτό το πλαίσιο, μια τεχνητή νοημοσύνη που μπορεί να διακρίνει μεταξύ ενός επαγγελματικού και ενός ιδιότροπου αιτήματος δεν είναι ένα σφάλμα, αλλά ένα χαρακτηριστικό που έχει σχεδιαστεί για να προσελκύει μια εταιρική πελατειακή βάση που εκτιμά την προβλεψιμότητα σε σχέση με την παιχνιδιάρικη διάθεση.

Από τα όρια ποσοστού έως τις απορρίψεις: A Pattern>p> μοιάζει λιγότερο ως χαρακτηριστικό και περισσότερο ως ένας απογοητευτικός περιορισμός.

Το περιστατικό”μονόκερος”είναι το πιο πρόσφατο σε μια σειρά γεγονότων που υπογραμμίζουν την αυξανόμενη τριβή μεταξύ των αποφάσεων σε επίπεδο πλατφόρμας της Anthropic και των προσδοκιών των μεμονωμένων χρηστών της.

Αυτή η δυναμική εμφανίστηκε πλήρως το καλοκαίρι, όταν η εταιρεία αντιμετώπισε σημαντικές αντιδράσεις για τους αθόρυβους κωδικούς.

Όπως ανέφερε το Winbuzzer τον Ιούλιο, τα απροειδοποίητα όρια διέκοψαν τις ροές εργασίας και εξόργισε τους πελάτες που πλήρωναν που θεώρησαν ότι η εταιρεία δεν ήταν διαφανής.

Η Anthropic επισημοποίησε αργότερα την πολιτική, εξηγώντας ότι ήταν απαραίτητο να περιοριστούν τα ακραία μοτίβα χρήσης και να διασφαλιστεί η μακροπρόθεσμη βιωσιμότητα της υπηρεσίας.

Ενώ η αρχική αιτιολόγηση της επικοινωνίας των χρηστών ήταν σωστή. B

και η διαμάχη για το όριο ποσοστών και η άρνηση του μονόκερου πηγάζουν από την ίδια βασική αιτία: Η Anthropic δημιουργεί ένα προϊόν για σταθερότητα και διακυβέρνηση σε επίπεδο επιχείρησης, το οποίο μερικές φορές έρχεται σε σύγκρουση με την επιθυμία του μεμονωμένου προγραμματιστή για ένα απεριόριστο, εντελώς υπάκουο εργαλείο.

Κάτω από την επιφάνεια ενός ιδιότροπου αιτήματος για μια μελλοντική ανάπτυξη

Τα μοντέλα τεχνητής νοημοσύνης εξελίσσονται από απλούς ολοκληρωτές κώδικα σε αυτόνομους πράκτορες, οι προγραμματιστές πρέπει να αντιμετωπίσουν ένα νέο παράδειγμα. Αυτά τα εργαλεία δεν είναι πλέον απλώς παθητικά όργανα. είναι ενεργοί συνεργάτες με τους δικούς τους ενσωματωμένους κανόνες και, όπως φαίνεται, τη δική τους αίσθηση επαγγελματικής ευπρέπειας.

Για την Anthropic, το να στοιχηματίζει το μέλλον της στην επιχείρηση, μια τεχνητή νοημοσύνη που ξέρει πότε να πει «όχι» μπορεί να είναι το πολυτιμότερο πλεονέκτημά της – ή η κύρια αδυναμία, ανάλογα με την περίπτωση χρήσης.

Categories: IT Info