Microsoft wnosi do lokalnych komputerów PC, wnosi do lokalnych komputery, potężne modele „GPT-Os” Openai, z dużym dążeniem do sztucznej inteligencji na urządzeniu. Przeniesienie wykorzystuje nową platformę, Azure ai Foundry Local , aby umożliwić deweloperom na bieżąco zaopatrywanie się w AI na odjeździe w systemie Windows, a bez linii Azure. Inicjatywa ma na celu tworzenie bardziej prywatnych, responsywnych i bezpiecznych aplikacji AI poprzez przetwarzanie danych lokalnie zamiast w chmurze. Jest znaczącym krokiem w tworzeniu wyrafinowanych narzędzi AI i pozycjonuje Windows jako kluczową platformę do następnej fali rozwoju AI, niezależnie od chmury.
Ogłoszenie, wydane przez Microsoft CVP i szef produktów platformy AI, Asha Sharma, jest najnowszym rozwojem w fali branżowej działalności związanej z branżą otaczającą OpenAI do modeli OpenAi. src=”https://winbuzzer.com/wp-content/uploads/2024/11/azure-ai-foundry.-fficial.jpg”>
Azure ai Figalry Local Local dla wnioskowania na terenie
w rdzeniu strategii Microsoft jest Azure Azure Local, a nowa Platforma wnioskowania na device dla systemu Windows i macOS . Umożliwia zaawansowanego modeli AI działanie bezpośrednio na sprzęcie użytkownika, znaczące odejście od modelu zorientowanego na chmurę, który zdominował krajobraz AI. Platforma jest obecnie dostępna w publicznym podglądzie, umożliwiając programistom natychmiastowe eksperymenty.
Kluczową zaletą platformy jest jej zdolność do funkcjonowania offline, ulepszanie prywatności i zachowanie danych wrażliwych na device obniżając barierę w celu wpisu w celu eksperymentu i wdrożenia o małej skali .
[embedded]
etyndowa lokalu locals locals locals the onNX. Czas wykonania do automatycznie optymalizuj wydajność modelu w szerokiej gamie sprzętu, w tym procesory, GPU i NPU od dostawców, takich jak Intel, AMD, Nvidia i Qualcomm . To także zapewnia atrakcję API z openai-compatible extlati, a CLI i sdk dla łatwej integracji . możliwości. „Foundry Local wprowadza te modele do systemu Windows-w celu uzyskania niskiej opóźnienia, bezpiecznego wnioskowania offline na procesorach, GPU i NPU. Jest to wyposażone w pełne uzgodnienie i wsparcie orkiestracyjne”. Ta pozycja Foundry Local nie tylko jako środowisko wykonawcze, ale jako pełnoprawny zestaw narzędzi programistycznych dla AI na urządzeniu.
Mózgi Operacji: Modelki GPT-OSS-OSS Openai
Foundry Local popiera nowo wydane „GPT-OSS-20B” Openai. Modele są dostępne na licencji apache 2.0, zachęcanie do powszechnego adopcji i modyfikacji .
mniejszy `Gpt-Ss-20b` jest specjalnie zaprojektowany dla aplikacji On-device-s-s-Ss-oss-ss-120Benta jest większym, mocniejszym modelem rozumowania z wydajność porównywalna z systemami klas GPT-4 . Oba są zbudowane na wydajnej architekturze mieszanki ekspertów (MOE), która aktywuje tylko ułamek parametrów modeli dla dowolnego zadania, maksymalizując wydajność, jednocześnie minimalizując koszty obliczeniowe.
Ten ruch dotyczy długotrwałej luki w portfolio Openai. Casey Dvorak, kierownik programu badawczego w Openai, wyjaśnił uzasadnienie: „Ponieważ nie ma [konkurencyjnego] otwartego modelu z OpenAI, chcieliśmy podłączyć tę lukę i faktycznie pozwolić im korzystać z naszej technologii na całej planszy”. Pozwala to firmie konkurować o programistów, którzy wymagają lokalnych modeli z powodów bezpieczeństwa, kosztów lub dostosowywania.
Krytycznym wymogiem technicznym jest „harmonia”, nowy i obowiązkowy format czatu dla „GPT-OS”. Ten szablon konstruuje dane wyjściowe modelu w oddzielnych kanałach dla rozumowania („analiza”), wywołania narzędzi („Commentary”) i ostatecznej odpowiedzi, dając programistom większą przejrzystą kontrolę nad agentowymi przepływami pracy.
Sojusz strategiczny w wyścigu AI
Microsoft oświadczeniem jest częścią szerokiego, koordynowanego dla `uruchomienia dla` uruchomienie, które pozostawiono w formie AI Race
Microsoft, jest częścią gp. Ekosystem techniczny. Ta ogólnoświatowa w branży podkreśla znaczenie powrotu Openai do społeczności typu open source i jej ambicji do ustalenia nowych standardów rozwoju sztucznej inteligencji.
Inni główni partnerzy to Qualcomm, który ogłosił, że model „GPT-OSS-20B” może działać lokalnie na swoich komputerach Snapdragon. To włączenie sprzętu ma kluczowe znaczenie dla wprowadzenia sztucznej inteligencji do laptopów o wysokiej wydajności, choć obecnie wymaga mocnego 24 GB pamięci RAM, umieszczając go mocno w kategorii sprzętowej klasy deweloperów.
Jednocześnie AWS ujawniło partnerskie partnerstwo w sprawie punktu widzenia. Zamknij więzi z Microsoft. Stwarza to dynamikę „koopecji”, rozszerzając zasięg Openai, jednocześnie intensyfikowając rywalizację AI Cloud.
Ta wieloprodukowana strategia wydaje się zaprojektowana w celu odzyskania wpływów w świecie open source. Jak zauważył Peter Henderson, asystent profesora na Uniwersytecie Princeton, „częściowo chodzi o ponowne uznanie dominacji Openai w ekosystemie badawczym”. Sama openai sformułowała wydanie w kategoriach geopolitycznych, stwierdzając, że „szeroki dostęp do tych zdolnych modeli otwartych w USA, utworzonych w USA, pomaga rozszerzyć demokratyczne szyny AI.”
, czyniąc jego modele potężnymi, dostępnymi i obsługiwanymi przez solidny ekosystem od chmury do krawędzi, Openai robi faktyczną aranżactwo platformy. Ten skoordynowany wysiłek ma na celu ustalenie „GPT-OS” i formatu harmonii jako nowego standardu dla następnej generacji rozwoju sztucznej inteligencji.