Το Anthropic εντείνει τον αγώνα παραθύρων περιβάλλοντος AI, αναβαθμίζοντας το μοντέλο Claude Sonnet 4 για να χειριστεί 1 εκατομμύριο μάρκες. Διατίθεται τώρα σε δημόσια beta Η κίνηση βάζει την ανθρωπότητα σε άμεσο ανταγωνισμό με την Greender Competiment. Codebases ή μεγάλα σύνολα εγγράφων ταυτόχρονα. Αυτή η ώθηση σε ολόκληρο τον κλάδο έρχεται ακριβώς όπως οι πρόσφατες μελέτες σχετικά με το”context rot”υποδηλώνουν ότι η απόδοση του μοντέλου μπορεί να επιδεινωθεί με μεγάλες εισροές, δημιουργώντας ερωτήσεις σχετικά με τη στρατηγική. href=”https://www.anthropic.com/news/1m-context”target=”_ blank”> Επίσημη ανθρωπότητα API και Amazon Bedrock. Η εταιρεία επιβεβαίωσε επίσης ότι η λειτουργία έρχεται σύντομα στην κορυφή του Google Cloud AI, διευρύνοντας τη διαθεσιμότητά της για τους προγραμματιστές των επιχειρήσεων. Το Anthropic τοποθετεί αυτή τη βελτίωση για μια νέα κατηγορία σύνθετων, εντατικών εφαρμογών δεδομένων που ήταν προηγουμένως ανέφικτες. Για τους προγραμματιστές, αυτό σημαίνει ότι η δυνατότητα εκτέλεσης ανάλυσης κώδικα μεγάλης κλίμακας φορτώνοντας ολόκληρες κώδικες, επιτρέποντας στο μοντέλο να κατανοεί την αρχιτεκτονική του έργου και να εντοπίσει εξαρτήσεις διασταυρούμενου αρχείου. Για τους ερευνητές και τους αναλυτές, επιτρέπει τη σύνθεση εκτεταμένων συνόλων εγγράφων, όπως νομικές συμβάσεις ή τεχνικές προδιαγραφές, διατηρώντας παράλληλα το πλήρες πλαίσιο σε εκατοντάδες πηγές. Εξουσιοδότησε επίσης τη δημιουργία πιο εξελιγμένων παραγόντων, που μπορούν να διατηρήσουν τη συνοχή σε εκατοντάδες κλήσεις εργαλείων και ροές εργασίας πολλαπλών σταδίων. Η Bolt.New, μια εταιρεία που ενσωματώνει την Claude στην πλατφόρμα ανάπτυξης του προγράμματος περιήγησης, υπογράμμισε τη συνεχιζόμενη απόδοση των ανταγωνιστών του μοντέλου. Ο Eric Simons, Διευθύνων Σύμβουλος και συνιδρυτής της εταιρείας, δήλωσε ότι”με το παράθυρο 1M περιβάλλοντος, οι προγραμματιστές μπορούν τώρα να εργαστούν σε σημαντικά μεγαλύτερα έργα, διατηρώντας παράλληλα την υψηλή ακρίβεια που χρειαζόμαστε για την κωδικοποίηση πραγματικού κόσμου.”Ο Sean Ward, Διευθύνων Σύμβουλος και συνιδρυτής της Igent AI, περιέγραψε την ενημέρωση ως θεμελιώδη μετατόπιση, σημειώνοντας ότι επιτρέπει την”αληθινή μηχανική παραγωγής, την Multoken Club”σε μια ομάδα Codebases-που προσφέρουν ένα νέο πρότυπο στο Agentic Engineering Software.”

Το ανταγωνιστικό τοπίο περιλαμβάνει ήδη το Minimax με βάση τη Σιγκαπούρη, το οποίο παρουσίασε ένα μοντέλο 4 εκατομμυρίων διακριτικών τον Ιανουάριο, θέτοντας ένα υψηλό μπαρ για τη βιομηχανία. Περιλαμβάνει επίσης το Meta, του οποίου το μοντέλο Scout LLAMA 4 διαθέτει μια χωρητικότητα 10 εκατομμυρίων συμβολών, ωθώντας τα όρια της επεξεργασίας μακρινών περιεχομένων. Target=”_ blank”> Η τιμολόγηση για τη νέα λειτουργία είναι κλιμακωτή . Για προτροπές μέχρι 200.000 μάρκες, το κόστος είναι $ 3 ανά εκατομμύριο μάρκες εισόδου. Για μεγαλύτερες προτροπές, η τιμή διπλασιάζεται σε 6 δολάρια ανά εκατομμύριο μάρκες εισόδου. Αυτή η δομή έχει σχεδιαστεί για να διαχειρίζεται το αυξημένο υπολογιστικό φορτίο μεγαλύτερων πλαισίων. Ενώ οι διεπαφές ιστού του έχουν μικρότερα όρια, το API GPT-5 προσφέρει ένα μέγιστο παράθυρο περιβάλλοντος 400.000 μάρκες. Αυτή η κορυφαία βαθμίδα διατηρείται αποκλειστικά για χρήστες API, στοχεύοντας σε εφαρμογές κατασκευής προγραμματιστών που απαιτούν ανάλυση βαθιάς εγγράφων. Το Gemini 2.5 Pro της Google υποστηρίζει ένα παράθυρο περιβάλλοντος μέχρι 1 εκατομμύριο μάρκες. 

Το πρόβλημα”rot context”: Είναι το μεγαλύτερο πάντα καλύτερο; Μια πρόσφατη αναφορά της Chroma Research εισήγαγε την έννοια της”Rot Context”, προκαλώντας την αφήγηση”Bigger Is Better”. Αντ’αυτού, εξέτασε 18 κορυφαίες LLMs για την ικανότητά τους να κάνουν συμπεράσματα από σημασιολογικά σχετικές πληροφορίες, ένα πολύ πιο δύσκολο έργο. Οι ερευνητές σημείωσαν:”Δείχνουμε ότι ακόμη και κάτω από αυτές τις ελάχιστες συνθήκες, η απόδοση του μοντέλου υποβαθμίζεται καθώς το μήκος εισόδου αυξάνεται, συχνά με εκπληκτικούς και μη ομοιόμορφους τρόπους.”Η μελέτη διαπίστωσε επίσης ότι τα μοντέλα GPT τείνουν να παραισθώνουν λανθασμένες απαντήσεις, ενώ τα μοντέλα Claude συχνά αρνήθηκαν να απαντήσουν όταν αντιμετωπίζουν ασάφεια. Αυτά τα ευρήματα δεν είναι απομονωμένα. Μια κοινή μελέτη από τη Microsoft και την Salesforce ανέφερε πτώση απόδοσης 39% σε μακρές συνομιλίες πολλαπλών στροφών. Το LLAMA 4 της Meta, παρά το παράθυρο των 10 εκατομμυρίων συμβολαίων, έχει αναφερθεί σε αναφορά σε δείκτες αναφοράς. Αυτό οδήγησε μερικούς, όπως ο ερευνητής του AI Gary Marcus, να αμφισβητήσει ολόκληρη την προσέγγιση. Ισχυρίστηκε:”Κανείς με πνευματική ακεραιότητα δεν μπορεί ακόμα να πιστέψει ότι η καθαρή κλιμάκωση θα μας οδηγήσει στο AGI. Καθώς οι προγραμματιστές αποκτούν πρόσβαση σε αυτά τα ισχυρά νέα εργαλεία, η εστίαση μπορεί να μετατοπιστεί από το πόσα δεδομένα μπορεί να χειριστεί ένα μοντέλο για το πόσο καλά προετοιμάζονται αυτά τα δεδομένα.

Categories: IT Info