Microsoft hat bei der Azure AI-Suche eine öffentliche Vorschau des „Agentenabrufs“ gestartet. Dieser Schritt zielt darauf ab, die Konversations-KI-Fähigkeiten erheblich voranzutreiben. Das neue System verwendet große Sprachmodelle (LLMs), um Chat-Historien zu analysieren. Diese Unterabfragen werden parallel über Text-und Vektordaten ausgeführt, so dass microsoft”>”>”>”>”>”>”>”>”>”>”>”>”>”>”>”>”>”>”>”>”>”>”>”>”>”>”>”> Es integriert sich in Azure OpenAI und erfordert den semantischen Ranger der Azure AI-Suche. Latenz. Dieser Start stimmt mit der breiteren Strategie von Microsoft zur Konsolidierung von KI-Angeboten innerhalb von Azure überein, zumal ältere Bing-Such-APIs im Ruhestand sind. Entwickler sollten den aktuellen Vorschau-Status beachten. eingeschränkte oder nicht unterstützte Merkmale. Ein neues Abrechnungsmodell gilt auch, das an Azure Openai und Azure AI-Suchverbrauch gebunden ist. Anstelle einer einzelnen Abfrage formuliert das Modell mehrere Unterabfragen basierend auf Benutzereingabe-, Chat-Verlaufs-und Anforderungsparametern. Microsoft erklärt dies ermöglicht Funktionen wie Abfragen umschreiben, Rechtschreibkorrektur und Dekonstruktion von facettenreichen Fragen. Zum Beispiel kann es eine Abfrage wie „Finden Sie ein Hotel am Strand mit Flughafentransport in der Nähe vegetarischer Restaurants“ ab. Die Ergebnisse werden zusammengeführt, semantisch eingestuft und in einer dreiteiligen Antwort zurückgegeben. Diese Antwort beinhaltet Erdungsdaten für Konversation, Referenzdaten für die Quellinspektion und einen Aktivitätsplan, in dem Ausführungsschritte detailliert werden. Matthew Gottiner stellte während einer Microsoft-Build-Sitzung fest, dass die Gesamtgeschwindigkeit die Anzahl der Unterabfragen bezieht. Gegenintuitiv, fügte er hinzu, ein „Mini“-Planer, der weniger, breitere Unterabfragen erzeugt, könnten die Ergebnisse schneller zurückgeben als ein”Full-Size”-Planer, der viele hochfokussierte Unterabfragen erzeugt. 11. Entwickler werden zum Azure AI Agent Service geführt, der eine Funktion „Erdung mit Bing-Suche“ umfasst. Dieser Übergang hat jedoch Herausforderungen gestellt. Integrationskomplexität mit Tools wie C# Semantic Kernel. 

Trotz dieser Übergangshürden wird die Bewegung in Richtung fortschrittlicherer KI-Werkzeuge wie Agentic Rag (ARAG) als Fortschritt angesehen. Akshay Kokane, ein Microsoft-Software-Ingenieur, semantischer Ranger für alle Azure Ai-Such-Stufen mit der freien Stuhlkuppe für Microsoft. Abfrageplanung über Azure OpenAi . Ähnliche Gebühren gelten für die semantische Rangliste über die Azure AI-Suche. Microsoft gibt an. Diese Ranking-Kosten werden zunächst für agentenab Abruf ausgegeben. href=”https://github.com/azure-amples/azure-search-python-samples/tree/main/quickstart-agentic-retrieval”target=”_ leer”> python , . target=”_ leer”> rest , um Entwicklern zu helfen. Agentenabruf ist auch Teil der aktuellen Azure AI Foundry-Updates.

Categories: IT Info