Ang Qualcomm ay pumasok sa merkado ng AI Data Center noong Lunes, naglulunsad ng mga bagong chips upang hamunin ang mga pinuno ng NVIDIA at AMD. Inihayag ng Qualcomm ang AI200 at AI250 accelerator, na itinayo para sa lumalagong merkado ng AI Inference. Ang paglipat nito ay isang pangunahing estratehikong paglilipat para sa higanteng teknolohiya ng mobile. Pinasaya ng mga namumuhunan ang balita, na nagpapadala ng stock ng kumpanya ng 15%. Ang bagong hardware nito ay nakatakdang dumating sa 2026, pagdaragdag ng isang malakas na bagong manlalaro sa lahi ng AI Arms. href=”https://www.qualcomm.com/news/releases/2025/10/qualcomm-unveils-ai200-and-ai250-redefining-rack-scale-data-cent”target=”_ blangko”> paggawa ng isang kinakalkula na paglalaro para sa sentro ng data . Ang kumpanya ay sidestepping isang direktang paghaharap sa nvidia sa puwang ng pagsasanay sa AI, isang merkado ang pinangungunahan ng GPU. nagsasangkot ng pagpapatakbo na na-sanay na mga modelo para sa mga application ng real-time. Ang madiskarteng pivot nito mula sa mobile-first focus nito ay isang sadyang paglalakbay. Kamakailan lamang ay inilabas ni Intel ang sarili nitong”Crescent Island”GPU na may katulad na layunin. Tulad ng ipinaliwanag ng Intel’s CTO Sachin Katti,”Ang AI ay lumilipat mula sa static na pagsasanay hanggang sa real-time, kahit saan ang pag-iintindi ng ahente-na hinihimok ng ahente ng AI.”href=”https://www.qualcomm.com/news/releases/2025/10/qualcomm-unveils-ai200-and-ai250-renofining-rack-scale-data-cent”target=”_ blank”> pagulong ng isang bukas na software na stack na idinisenyo para sa madaling pag-aampon . Ang mga frameworks at isang-click na paglawak para sa mga modelo mula sa mga hubs ng developer tulad ng Hugging Face, ang kumpanya ay naglalayong magbigay ng isang mabubuhay na alternatibo sa mga negosyo ng Nvidia at cloud provider. quo, ang mga bagong accelerator ng Qualcomm ay inuuna ang kapasidad at kahusayan ng memorya. Ang AI200 card ay magtatampok ng napakalaking 768GB ng memorya ng LPDDR. Sa pamamagitan ng paggamit ng LPDDR, nilalayon ng Qualcomm na mag-load ng napakalaking mga modelo ng AI papunta sa isang solong kard, na binabawasan ang pangangailangan para sa magastos at paglilipat ng data na gutom sa pagitan ng maraming mga chips. Ang mas advanced na AI250, na binalak para sa 2027, itinulak ang konsepto na ito nang higit pa sa isang malapit na memorya na layout ng compute. Ayon kay Durga Malladi, SVP & GM sa Qualcomm,”Sa Qualcomm AI200 at AI250, muling tukuyin namin kung ano ang posible para sa rack-scale ai inference.”Ang mga umiiral na rack ng GPU mula sa mga kakumpitensya, ngunit sa pangako ng higit na kahusayan para sa mga workload ng inference, na direktang nakakaapekto sa isang badyet ng data center. Ang AI Hardware Market ay labis na pinamamahalaan ng NVIDIA, na ang malakas na GPU at CUDA software ecosystem ay naging pamantayan sa industriya. Ang pangingibabaw na iyon ay lumikha ng mga hadlang sa supply at mataas na gastos, na nag-uudyok sa mga pangunahing manlalaro tulad ng Oracle at OpenAi upang aktibong maghanap ng mga kahalili mula sa AMD at bumuo ng pasadyang silikon. Ang isang masigasig na tugon sa merkado, na kasama ang isang 15% na pagsulong sa stock ng Qualcomm, ay nagpapahiwatig ng malakas na paniniwala ng mamumuhunan sa potensyal ng kumpanya na makuha ang isang makabuluhang bahagi. 2027, ang Qualcomm ay nagsasagawa sa isang taunang kadalisayan ng paglabas upang makasabay sa mga karibal nito. href=”https://www.cnbc.com/2025/10/27/qualcomm-ai200-ai250-ai-chips-nvidia-amd.html”target=”_ blangko”> sinabi . Habang patuloy na tumaas ang lahi ng AI Arms, ang pagkakaiba-iba ng diskarte ng Qualcomm ay ginagawang isang kakila-kilabot na bagong contender sa labanan para sa hinaharap ng data center.
IT Info
AI Pamimili: Paypal at Openai Partner upang magdala ng Instant Checkout sa Chatgpt
Ang PayPal ay nakikipagtulungan sa OpenAI upang mai-embed ang digital wallet nito at isang tampok na'instant checkout'sa chatgpt, na tumataas ang lahi ng commerce ng AI laban sa Walmart at Microsoft. Ang post ai