Microsoft ha lanciato un’anteprima pubblica di”Recupero agente”nella ricerca Ai Ai. Questa mossa mira a far avanzare significativamente le capacità di intelligenza artificiale conversazionale. Il nuovo sistema impiega modelli di grandi dimensioni (LLMS) per analizzare le storie di chat.
Rompe quindi le complesse domande degli utenti in più sottoquerie focalizzate. Queste sottoquerie vengono eseguite in parallelo tra i dati di testo e vettoriali, secondo
Questo sviluppo è importante per gli sviluppatori di sofisticati agenti di intelligenza artificiale. Il recupero agentico mira a fornire dati di messa a terra di qualità superiore e consapevoli del contesto. Tali dati sono essenziali per applicazioni AI più intelligenti. La funzione è accessibile tramite un nuovo oggetto”Agenti di conoscenza”nell’API REST Anteprima e imminenti SDK Azure, come dettagliato da MicroSoft apprendono . Si integra con Azure OpenAI e richiede il relker semantico di Ai Search di Ai. latenza. Questo lancio si allinea con la più ampia strategia di Microsoft per consolidare le offerte di intelligenza artificiale all’interno di Azure, in particolare quando le API di ricerca Bing più vecchie sono ritirate. Gli sviluppatori dovrebbero notare l’attuale stato di anteprima. Questo significa, come evidenziato nel termini ufficiali supplementari Caratteristiche vincolate o non supportate. Si applicherà anche un nuovo modello di fatturazione, legato all’utilizzo di Azure Openai e Azure AI. Invece di una singola query, il modello formula più sottoquerie in base all’ingresso dell’utente, alla cronologia delle chat e ai parametri di richiedere. Microsoft spiega questo abilita caratteristiche come la riscrittura delle query, la correzione ortografica e la decostruzione di domande sfaccettate. Ad esempio, può gestire una domanda come”Trova un hotel sulla spiaggia con trasporti aeroportuali vicino ai ristoranti vegetariani.” Il componente”Recupero”quindi esegue queste sottoquerie contemporaneamente. I risultati vengono uniti, classificati semanticamente e restituiti in una risposta in tre parti. Questa risposta include i dati di messa a terra per la conversazione, i dati di riferimento per l’ispezione delle origini e un piano di attività che dettaglia le fasi di esecuzione. Matthew Gotteiner, durante una sessione di build Microsoft, ha osservato che la velocità complessiva riguarda il numero di sottoquerie. Querie più complesse che necessitano di numerose sottoquerie potrebbero naturalmente richiedere più tempo. Controintuitivamente, ha aggiunto, un pianificatore”mini”che genera meno sottoquerie più ampie potrebbe restituire risultati più veloci di un pianificatore”a grandezza naturale”che crea molti sottoquerie altamente focalizzati. [contenuto incorporato incorporato il suo ciclo di ricerca sugli sviluppatori e le sue considerazioni di ricerca sullo sviluppatore
reperto di presentazione dell’agente in modo da essere a pioli di ricerca sugli sviluppatori Alcuni sviluppatori hanno sollevato preoccupazioni sulla gestione dei dati, poiché le informazioni potrebbero spostarsi al di fuori dei confini di conformità azure standard e hanno explained in a Medium post that while Lo straccio tradizionale è un buon inizio,”man mano che i casi d’uso aziendale diventano più complessi, i limiti di flussi di lavoro statici e lineari diventano evidenti.” ha aggiunto che Arag”affronta questo divario introducendo ragionamenti dinamici, selezione di strumenti intelligenti e raffinatezza iterativa”. L’interesse del settore sottolineabile, AT&T ha dichiarato il suo entusiasmo, notando che”non vedono l’ora di usare il recupero agente di Azure Ai Search con i nostri agenti per abbinare la velocità, la complessità e la diversità delle informazioni di cui avremo bisogno per colpire i nostri obiettivi”, in base all’agente di Microsoft Community. Azure AI Search, che si collega a un LLM in Azure Openi per costruire ed eseguire piani di query. Attualmente, la configurazione è solo tramite le API REST Anteprima, come dettagliato da semantico di pay-you, su tutti i livelli di ricerca di Azure azzerati tranne quello gratuito, secondo Microft. Pianificazione delle query tramite Azure Openi . Addebiti simili si applicano per la classifica semantica tramite Azure AI Search. Tuttavia, Microsoft afferma che questi costi di classificazione sono inizialmente revocati per il recupero agente durante l’anteprima. Microsoft offre una documentazione estesa e campione per pithon , . net e riposa per aiutare gli sviluppatori. Il recupero agente fa parte anche dei recenti aggiornamenti di Ai Ai Foundry.