AI Company Antropic si trova di fronte a un contraccolpo dei clienti questa settimana dopo aver rafforzato silenziosamente i limiti di utilizzo per il suo famoso servizio Claude Code. Da lunedì 14 luglio, pagando gli abbonati, compresi quelli sul piano massimo di $ 200/mese premium, hanno trovato il loro lavoro interrotto inaspettatamente da nuovi tappi restrittivi.
Le modifiche senza preavviso hanno scatenato la frustrazione diffusa su . Gli utenti si sono lamentati di progetti interrotti e dell’incapacità di lavorare. La vaga risposta ufficiale di Antropico, che riconosce solo”tempi di risposta più lenti”, ha alimentato le richieste di trasparenza.
Questa situazione evidenzia una crescente tensione tra gli immensi costi operativi dell’intelligenza artificiale elevata e le aspettative degli utenti per un servizio affidabile e prevedibile, soprattutto quando si paga un premio. src=”https://winbuzzer.com/wp-content/uploads/2024/10/anthropopic-ai-safety-ai-sabotage.jpg”>
Il fascino della piattaforma sta nelle sue capacità avanzate. Gli ultimi modelli di antropici, in particolare Claude 4 Opus, sono stati elogiati per la loro capacità di gestire compiti di codifica complessi e di lunga data e comprendere grandi basi di codice. Ciò rende lo strumento unicamente potente per lo sviluppo di software professionale.
Una scatola nera di limiti di utilizzo
Il nucleo della frustrazione dell’utente deriva dalla natura improvvisa e inspiegabile dei nuovi limiti. Un utente su un piano a pagamento si è lamentato:”Il tuo monitoraggio dei limiti di utilizzo è cambiato e non è più accurato. Nei 30 minuti di alcune richieste ho colpito i 900 messaggi”, esprimendo incredulità a come Questa confusione è esacerbata da documentazione antropica . La politica ufficiale della società non definisce numeri di messaggi assoluti per i suoi livelli. Invece, descrive un sistema relativo in cui i piani a pagamento offrono multipli di un livello libero il cui limite”varierà per domanda.”
Il centro di aiuto di Antropico spiega:”Il numero di messaggi che puoi inviare varierà in base alla lunghezza dei tuoi messaggi, comprese le dimensioni dei file che allegate e la durata della conversazione attuale”, aggiungendo quei limiti ripristina ogni cinque ore in ciò che chiama una”sessione”. Questo sistema a tasso galleggiante rende impossibile per gli sviluppatori professionisti prevedere il loro accesso, trasformando i flussi di lavoro mission-critical in una scommessa.
Questa ambiguità crea un rischio commerciale significativo per le aziende e gli sviluppatori indipendenti che fanno affidamento sul servizio. Senza un accesso prevedibile, pianificare progetti a lungo termine o garantire scadenze diventa quasi impossibile, costringendo gli utenti a ridimensionare le loro ambizioni o cercare alternative più affidabili.
dolori in crescita o tensione sistemica?
Compotenando il problema, i limiti di Stricter sono emersi al fianco di una grande instabilità della rete. Il funzionario di Antropico La pagina di stato mostra più interruzioni del servizio nella scorsa settimana. Gli utenti su GitHub hanno anche riportato frequenti errori di sovraccarico di API, ricevendo messaggi”Errore 529″.
Questa situazione si svolge in una gara di armi. Con rivali come Openai e Google che migliorano costantemente i loro modelli, Antropic è sotto pressione per offrire servizi altamente capaci a prezzi competitivi. Il generoso piano Max era probabilmente una strategia per catturare la quota di mercato dagli utenti di potere, una mossa che potrebbe ora dimostrare finanziariamente insostenibile.
I problemi arrivano anche mentre la società sta cercando un nuovo round di finanziamento che potrebbe spingere la sua valutazione a $ 100 miliardi. Questa immensa pressione finanziaria potrebbe costringerlo a frenare gli alti costi dei suoi modelli.
Per alcuni, i termini generosi del piano Max sono sempre stati considerati potenzialmente insostenibili. Un utente ha detto a TechCrunch che il piano ha permesso loro di effettuare oltre $ 1.000 di chiamate API in un solo giorno, superando di gran lunga la quota di abbonamento. Ciò suggerisce una correzione del corso necessaria, se scarsamente gestita. Quando è stato contattato dalla stampa, un rappresentante dell’azienda ha offerto una dichiarazione limitata, dicendo:”Siamo consapevoli che alcuni utenti di Claude Code stanno vivendo tempi di risposta più lenti e stiamo lavorando per risolvere questi problemi”, senza affrontare il problema specifico dei limiti di utilizzo.
per gli sviluppatori che hanno costruito i loro flussi di lavoro intorno all’AI, le improvvise restrizioni stanno paragonando. Un utente, che ha provato i modelli rivali, ha lamentato che”non c’è davvero nient’altro che sia competitivo con il set di capacità di Claude Code in questo momento”, evidenziando la loro dipendenza.
Questa mancanza di immediatezza ha solo infiammato la situazione. Il sentimento tra molti utenti interessati è che il silenzio è più dannoso del cambiamento della politica stessa. Come uno sviluppatore ha detto a TechCrunch:”Sii trasparente. La mancanza di comunicazione fa solo perdere la fiducia alle persone”, sottolineando che il problema principale è una ripartizione della fiducia.
La risposta della comunità suggerisce la volontà di accettare limiti ragionevoli se vengono comunicate chiaramente. La denuncia di base non è necessariamente il cambiamento stesso, ma il modo in cui è stato implementato: senza preavviso, spiegazioni o un chiaro percorso per i suoi clienti paganti.
L’incidente funge da racconto di ammonimento per l’industria dell’intelligenza artificiale. Man mano che gli sviluppatori e le aziende integrano questi potenti strumenti nelle loro operazioni quotidiane, la necessità di una chiara comunicazione e un servizio prevedibile diventa fondamentale. Senza di essa, anche le piattaforme di intelligenza artificiale più avanzate rischiano di alienare i loro utenti più dedicati.