A

Openai és az Amazon Web Services (AWS) jelentős új partnerséget alakítottak ki. Kedden a vállalatok bejelentették, hogy az Openai új „GPT-OSS” nyílt-súlyú modelljei már először érhetők el az AWS felhőn. A fejlesztők most már hozzáférhetnek a modellekhez az Amazon Bedrock és a Sagemaker segítségével.

Ez a lépés mindkét cég számára nagy változást jelent. Az Openai célja a nyílt forráskódú közösség visszaszerzése, és versenyezni olyan riválisokkal, mint a Meta. Az AWS számára ez egy kulcsfontosságú győzelem, amely a legmagasabb szintű AI modelleket adja hozzá a platformjához, segítve a rést a fő versenytársával, a Microsoft-nal a generatív AI térben. Az OpenAI hatalmas modelljei először érhetők el az AWS-en, a világ legnagyobb felhőszolgáltatóján. Ez több millió AWS-ügyfelet biztosít az Openai legújabb technológiájához, olyan szolgáltatásokon keresztül, mint az Amazon Bedrock és a Sagemaker. Nyerj az AWS-hez. A cég A Wall Street intenzív nyomással szembesült a Geni-fajtal szemben a generatív AI fajban. Az Amazon vezérigazgatója, Andy Jassy nemrégiben megvédte cégének pozícióját, megjegyezve: „Azt hiszem, a második játékos az AWS méretének körülbelül 65%-a.”

Ez a partnerség közvetlenül foglalkozik ezekkel az aggodalmakkal. Ez lehetővé teszi az AWS számára, hogy hatalmas ügyfélkörének legmagasabb szintű alternatívát kínáljon az antropikus, a meta és mások modelljeire. Atul Deo, az AWS termék igazgatója természetes lépésként fogalmazta meg azt, kijelentve: „Az OpenAI hozzáadása a legújabb nyílt súlyú modell szolgáltató, amely természetes előrehaladást jelent az elkötelezettségünkben, hogy az élvonalbeli AI-t a szervezetekbe hozza világszerte.”A legnagyobb felhőszolgáltatóval való partnerséggel az OpenAi diverzifikálja az Azure-re való támaszkodást és megerősíti tárgyalási helyzetét, mindazonáltal bővítve. Ezek az OpenAI első nyitott súlyú kiadásai a GPT-2 2019 óta, amely megengedő Apache 2.0 licenc alatt áll rendelkezésre. Ezek egy hatékony szakemberek (MOE) architektúrára épülnek. Például a „GPT-OSS-120b” modell a 117b paramétereinek mindössze 5,1B-os aktiválása, tokenre, ezáltal rendkívül hatékony. A kisebb 20 milliárd paraméter-modell csak 16 GB RAM-mal futhat fogyasztói eszközökön. A nagyobb 120B-os verzió csak egyetlen 80 GB-os GPU-t igényel, amely közös a szakmai munkaállomásokban. Mindkettő Az ölelés arcán elérhető . Az Openai kijelenti, hogy a „GPT-OSS” modelleket ezen a sablonon képezték ki, és anélkül nem fog működni helyesen. A Harmony Struktúrák modellje a kimenetet különálló csatornákba modellezi az „elemzés”, a „kommentár” és a „végleges” válaszokhoz. Az örökbefogadás korszerűsítése érdekében az Openai hivatalos

A koordinált indítás a tech-ökoszisztémában

, míg az AWS partnerség a címsor, amely sokkal szélesebb körű, koordinált. Az OpenAi számos partnerrel foglalkozott annak biztosítása érdekében, hogy Az új modellek azonnali és széles körű elfogadása . href=”https://developer.nvidia.com/blog/delivering-1-5-m-tps-inference-on-nvidia-gb200-nvl72-nvidia-actelerates-openai-gpt-oss-models-prom-cloud-gede/”Target=”_ blank”> A „GPT-Oss”-hoz, a „GPT-Oss”-hoz, a GPT-Oss-tól. hardver . 

Ez az ökoszisztéma-megközelítés aláhúzza az Openai ambícióját. Azáltal, hogy modelleit erőteljes, hozzáférhetővé és széles körben támogatja, ez kényszerítő esetet hoz az ökoszisztéma számára. Ez a koordinált erőfeszítés, a Cloud-tól az Edge-ig, a „GPT-OSS” és a Harmony formátum létrehozása új szabványként az AI fejlesztés következő generációjának.

Categories: IT Info