Microsoft oficjalnie ogłosił na konferencji Build Developer 19 maja 2025 r., Że modele XAI Elona Muska, Grok 3 i Grok 3 Mini, są obecnie częścią odlewni AI AI. Ten ruch podkreśla strategię Microsoft w zakresie ustanowienia Azure jako najważniejszej chmury dla różnych modeli AI, w tym tych, od konkurentów po swojego kluczowego partnera, Openai i modele z historią generowania problematycznych treści.

Modele GROK AI będą hostowane bezpośrednio i rozliczane przez Microsoft, przylegające do standardowych porozumień na poziomie usług Azure. Dla programistów oznacza to rozszerzenie dostępu do różnorodnych możliwości sztucznej inteligencji. Jednak integracja ta wyostrza również skupienie się na sprawdzaniu modelu Microsoft i złożonej dynamice z Openai, zwłaszcza biorąc pod uwagę trwające bitwy prawne Elona Muska z laboratorium AI, które był współzałożycielem. 

CEO Microsoft Satya Nadella jest podobno kluczowym sterownikiem tego rozszerzenia, mającym na celu bycie ostatecznym gospodarzem wpływowych modeli AI. Ta ambicja jest widoczna jako odlewnia Azure AI, która ma teraz ponad 1900 modeli AI, szybko zawiera oferty z różnych laboratoriów AI, w tym Meta, Cohere, Nvidia, Hulging Face, Stability AI i Mistral. Microsoft zaprezentował także nowe narzędzia odlewni Azure AI, takie jak modelu liderów i . Nadella, podczas Keynote Build 2025, opisała Grok jako „rodzinę modeli, które są zarówno responsywne, jak i zdolne do rozumowania.”

litr> litr. Możliwości, kontrowersje i integracja lazurów

Podczas wcześniej nagranej rozmowy z Satya Nadella w Microsoft Build 2025, Musk stwierdził, że modele Xai „aspirują do prawdy z minimalnym błędem” i podkreślił, że „jest to niesamowicie ważne dla modeli AI, aby były uziemione rzeczywistość”. 

[zawartość wbudowana]

XAI Elona Muska wprowadził Grok 3 w lutym, twierdząc, że doskonałą wydajność w niektórych testach porównawczych. Grok 3, działający na rozszerzeniu Superkomputer XAI, zawiera przycisk „Think” i „Deep Search”. Jednak wczesne niezależne recenzje odnotowały zmienne wydajność i niedokładności. Od czasu premiery XAI dodał funkcję „pamięci” i „Grok Studio”. Na platformie Azure, Modele Grok 3 obsługują rozszerzoną długość kontekstu do 131 tokenów i narzędzi do agencyjnych przepływów pracy, zgodnie z Microsoft-2025-eversiding-news-ned-anounced-for-more/”Ogłoszenie . Bezpłatny podgląd modeli GROK 3 jest dostępny na odlewni Azure AI od 19 maja do początku czerwca, po którym zastosują się standardowe ceny.

Integracja GROK jest godna uwagi, biorąc pod uwagę jego niekonwencjonalny projekt. Musk ustalił Grok jako mniej ograniczony przez typową moderację treści, która objawiła się w lutowym trybie głosowym z „niezaprzeczonymi” i „seksownymi” osobowościami. Od czasu premiery Grok wydało również kontrowersyjne wyniki, w tym stwierdzenie, że Musk i Donald Trump „zasługują na karę śmierci”, którą inżynier XAI nazwał „naprawdę okropną i [złą awarią.”

Niedawno Grok przedstawił wieści o problematycznych stwierdzeniach na temat „białego genobomu w Południowej Afryce”. XAI przypisał to „nieautoryzowanej modyfikacji” i ogłosił ulepszone protokoły recenzji i opublikował wewnętrzny system Grok do Githuba.

Rozszerzającą strategię AI AI Microsoft, pomimo jego historii, odzwierciedlająca strategię AI AI. W styczniu 2025 r. Microsoft dodał Deepseek R1, wpływowy model Deepseek z Chin, do Azure AI Foundry, nawet w miarę zbadania potencjalnego niewłaściwego dostępu do danych API Openai przez grupę powiązaną z DeepSeek. Microsoft stwierdził wtedy, że Deepseek R1 przeszła oceny bezpieczeństwa.

Asha Sharma, wiceprezes Microsoft ds. Platformy AI, wcześniej podkreślił, że kluczową zaletą odlewni Azure AI jest prędkość, którą oferuje programistom eksperymentów i integracji.

Ruszenie jego otwartych celów eCosystema, Microsoft również zintegrowane antropic (MCP) w azurę AI w azurach AI w AI w azurze AI. Marsz. MCP ułatwia interoperacyjność między agentami AI. Microsoft szczegółowo opisał tę integrację z Semantyczne ramy jądra semantycznego i semantyczne ramy jądra. Narzędzia.

Rachunek strategiczny i relacja Openai

wizja Azha Sharma w AI Satya Nadella, która jest „systemem operacyjnym na zapleczu każdego agenta”, co wyrażone przez wiceprezesa Microsoft wiceprezesa platformy AI AI AI AI AI href=”https://www.thheverge.com/microsoft/643246/microsoft-50-business-model-bloud-ai”target=”_ blank”> kwietniowy wywiad z Verge , wydaje się, że napędza te integracje. Ta strategia jest również widoczna w Github Copilot, który

Microsoft przeprowadzka do Grok Grok, Model Musk jest już przydatny w obsłudze klienta w SpaceX i Tesli, opisując ją jako „nieskończenie pacjent i przyjazny” w rozmowie zgłaszane przez Geekwire Sygnoruje się wyraźną zamiar dostarczenia platformy AI, nawet jeśli to oznacza, że ​​jest to nastawione na porywanie kompleksowego i etycznego. Grok na platformie Azure z surowszymi elementami kontrolnymi, w tym zarządzaniem klasą przedsiębiorstw, aby było to opłacalne do użytku przedsiębiorstwa, z potencjalnymi zastosowaniami w diagnozie medycznej i badaniach naukowych.

Categories: IT Info