Qualcomm gia nhập thị trường trung tâm dữ liệu AI vào thứ Hai, tung ra các chip mới để thách thức các nhà lãnh đạo Nvidia và AMD. Qualcomm tiết lộ bộ tăng tốc AI200 và AI250, được thiết kế cho thị trường suy luận AI đang phát triển.

Qualcomm đang đặt cược vào một thiết kế có dung lượng bộ nhớ lớn để mang đến cho khách hàng mức chi phí thấp hơn và hiệu quả cao hơn. Động thái của nó là một sự thay đổi chiến lược lớn đối với gã khổng lồ công nghệ di động. Các nhà đầu tư vui mừng trước tin tức này, khiến cổ phiếu của công ty tăng 15%. Phần cứng mới của hãng dự kiến ​​sẽ ra mắt vào năm 2026, bổ sung thêm một nhân tố mới mạnh mẽ vào cuộc chạy đua vũ trang AI.

Một sự đặt cược chiến lược vào thị trường suy luận AI

Tận dụng kiến ​​thức chuyên môn hàng thập kỷ về bộ xử lý di động tiêu thụ điện năng thấp, Qualcomm là thực hiện một hoạt động có tính toán cho trung tâm dữ liệu. Công ty đang tránh cuộc đối đầu trực tiếp với Nvidia trong lĩnh vực đào tạo AI, một thị trường mà gã khổng lồ GPU đang thống trị.

Thay vào đó, công ty đang nhắm đến thị trường suy luận đang mở rộng nhanh chóng, bao gồm cả việc chạy các mô hình đã được đào tạo cho các ứng dụng thời gian thực. Durga Malladi, SVP & GM tại Qualcomm cho biết: “Trước tiên, chúng tôi muốn chứng tỏ bản thân trong các lĩnh vực khác và sau khi đã xây dựng được sức mạnh của mình ở lĩnh vực đó, chúng tôi khá dễ dàng tiến lên một tầm cao ở cấp độ trung tâm dữ liệu”. Intel gần đây đã tiết lộ GPU “Đảo lưỡi liềm” của riêng mình với mục tiêu tương tự. Như CTO Sachin Katti của Intel đã giải thích: “AI đang chuyển từ đào tạo tĩnh sang suy luận theo thời gian thực, ở mọi nơi—được thúc đẩy bởi AI tác nhân”.

Sự thay đổi toàn ngành đó đang mở ra cơ hội cho các kiến ​​trúc mới ưu tiên hiệu suất trên mỗi watt và giảm chi phí vận hành so với sức mạnh tính toán thô cần thiết cho đào tạo.

Để hỗ trợ phần cứng của mình, Qualcomm triển khai một nhóm phần mềm mở được thiết kế để dễ dàng áp dụng.

Bằng cách nhấn mạnh khả năng tương thích liền mạch với AI chính framework và triển khai bằng một cú nhấp chuột cho các mô hình từ trung tâm nhà phát triển như Hugging Face, công ty đặt mục tiêu cung cấp một giải pháp thay thế khả thi cho hệ sinh thái CUDA độc quyền của Nvidia, giảm bớt xung đột cho các doanh nghiệp và nhà cung cấp đám mây.

Memory Over Muscle: Một cách tiếp cận khác đối với thiết kế chip

Trong thách thức trực tiếp đối với hiện trạng lấy GPU làm trung tâm, Bộ tăng tốc mới của Qualcomm ưu tiên dung lượng và hiệu quả bộ nhớ. Thẻ AI200 sẽ có bộ nhớ LPDDR khổng lồ 768GB.

Nó thể hiện sự khởi đầu chiến lược khỏi tiêu chuẩn bộ nhớ băng thông cao (HBM) đắt tiền trong các chip cao cấp của Nvidia và AMD.

Mặc dù HBM cung cấp băng thông vượt trội nhưng nó rất tốn kém và có thể gây tắc nghẽn chuỗi cung ứng. Bằng cách sử dụng LPDDR, Qualcomm đặt mục tiêu tải các mô hình AI khổng lồ vào một thẻ duy nhất, giảm nhu cầu truyền dữ liệu tốn kém và ngốn điện giữa nhiều chip.

Triết lý thiết kế của họ tập trung vào việc giảm tổng chi phí sở hữu (TCO) cho các nhà khai thác trung tâm dữ liệu. AI250 tiên tiến hơn, dự kiến ​​ra mắt vào năm 2027, sẽ đẩy khái niệm này đi xa hơn với bố cục điện toán gần bộ nhớ.

Qualcomm tuyên bố kiến ​​trúc này có thể mang lại băng thông bộ nhớ hiệu quả cao hơn 10 lần, giải quyết các tắc nghẽn thường làm chậm tác vụ suy luận. Theo Durga Malladi, SVP & GM tại Qualcomm, “Với Qualcomm AI200 và AI250, chúng tôi đang xác định lại khả năng suy luận AI trên quy mô giá đỡ”.

Qualcomm sẽ cung cấp công nghệ này dưới dạng thẻ tăng tốc riêng lẻ hoặc dưới dạng giá đỡ máy chủ hoàn chỉnh, làm mát bằng chất lỏng.

Các hệ thống toàn giá sẽ hoạt động ở mức 160 kilowatt, mức tiêu thụ điện năng tương đương với hiện tại GPU vượt trội so với các đối thủ cạnh tranh, nhưng hứa hẹn mang lại hiệu quả cao hơn cho khối lượng công việc suy luận, tác động trực tiếp đến ngân sách hoạt động của trung tâm dữ liệu.

Tham gia vào lĩnh vực đông đúc: Qualcomm vs. Titans

Đối với các nhà cung cấp đám mây và doanh nghiệp lớn, sự xuất hiện của một nhà cung cấp lớn khác có thể mang lại sự cạnh tranh đáng hoan nghênh về giá và sự ổn định của chuỗi cung ứng.

Trong nhiều năm, AI Thị trường phần cứng đã bị thống trị áp đảo bởi Nvidia, công ty có hệ sinh thái phần mềm CUDA và GPU mạnh mẽ đã trở thành tiêu chuẩn của ngành. Sự thống trị đó đã tạo ra những hạn chế về nguồn cung và chi phí cao, khiến những công ty lớn như Oracle và OpenAI tích cực tìm kiếm các giải pháp thay thế từ AMD và thậm chí phát triển silicon tùy chỉnh.

Sự gia nhập của Qualcomm càng làm tăng thêm sự cạnh tranh này. Phản ứng nhiệt tình của thị trường, bao gồm cả việc cổ phiếu của Qualcomm tăng 15%, cho thấy niềm tin mạnh mẽ của nhà đầu tư vào tiềm năng của công ty trong việc nắm bắt được một thị phần có ý nghĩa.

Qualcomm đã có được một khách hàng ban đầu đáng kể là Humain của Ả Rập Xê Út. Công ty này đã cam kết triển khai các hệ thống sử dụng công suất lên tới 200 megawatt.

Với AI200 ra mắt vào năm 2026 và AI250 vào năm 2026. Đến năm 2027, Qualcomm cam kết thực hiện nhịp độ phát hành hàng năm để bắt kịp với các đối thủ của mình.

Công ty cũng nhấn mạnh tính linh hoạt, cho phép khách hàng tích hợp các thành phần của mình vào thiết kế máy chủ tùy chỉnh của riêng họ.

“Những gì chúng tôi đã cố gắng làm là đảm bảo rằng khách hàng của chúng tôi có thể tiếp nhận tất cả hoặc nói:’Tôi sẽ kết hợp và kết hợp'”Malladi đã nói. Khi cuộc chạy đua vũ trang AI tiếp tục leo thang, chiến lược khác biệt của Qualcomm khiến hãng này trở thành một đối thủ mới đáng gờm trong cuộc chiến vì tương lai của trung tâm dữ liệu.

Categories: IT Info