Google đã chính thức giới thiệu Đơn vị xử lý tenor thế hệ thứ bảy (TPU), Ironwood, được thiết kế để giải quyết các nhu cầu ngày càng tăng của suy luận AI. Với các ứng dụng điều khiển AI trở nên phổ biến hơn, Ironwood hứa hẹn không chỉ tăng cường hiệu suất mà còn có khả năng mở rộng, các giải pháp tiết kiệm năng lượng định vị Google là người chơi chính trong thị trường phần cứng AI phát triển nhanh chóng. Chip có hai cấu hình, một với 256 chip và một với thiết lập chip 9.216 lớn, cho phép hệ thống mở rộng quy mô khi cần thiết. Các thiết lập này cung cấp năng lực tính toán lớn, đặc biệt quan trọng đối với các ứng dụng AI quy mô lớn như AI thế hệ, xử lý dữ liệu thời gian thực và hệ thống ra quyết định.

Cấu hình lớn nhất đạt được công suất tính toán kết hợp là 42,5 exaflops, vượt xa các siêu máy tính trước đây như El Capitan. src=”Dữ liệu: Image/SVG+XML; IIIHDPZHROPSIXMDAWIIBOZWLNAHQ9IJU2MIIGEG1SBNM9IMH0DHA6LY93D3CUDZMUB Nguồn: Google

Google nhấn mạnh hiệu quả năng lượng của Ironwood . Mặc dù sức mạnh xử lý tuyệt đối, TPU được thiết kế với mức tiêu thụ năng lượng tối thiểu, giải quyết các mối quan tâm ngày càng tăng về tác động môi trường của AI. Cam kết này về tính bền vững phù hợp với chiến lược rộng lớn hơn của Google, để cung cấp các giải pháp AI mạnh mẽ trong khi giảm thiểu dấu chân carbon của các hoạt động AI. src=”Dữ liệu: Image/SVG+XML; DPZHROPSIXMDAWIIBOZWLNAHQ9IJU2MIIGEG1SBNM9IMH0DHA6LY93D3CUDZMUB Google

Thiết kế tập trung vào suy luận: Một bước hướng tới tương lai của AI

khi Ironwood khác biệt là tập trung vào AI suy luận, quá trình áp dụng các mô hình được đào tạo trước vào dữ liệu mới, chẳng hạn như tạo ngôn ngữ và nhận dạng hình ảnh. Không giống như TPU trước đây, được định hướng đào tạo nhiều hơn, Ironwood được thiết kế đặc biệt để tăng tốc hiệu suất của các ứng dụng AI thế hệ. Các loại mô hình AI này đang đạt được sức hút giữa các ngành công nghiệp, bao gồm cả việc tạo ra phương tiện tổng hợp, tự động hóa dịch vụ khách hàng và các hệ thống quyết định dựa trên dữ liệu. Google, Ironwood được thiết kế để đáp ứng nhu cầu này, đảm bảo triển khai mô hình nhanh hơn, hiệu quả hơn, có thể cải thiện đáng kể tốc độ và hiệu quả chi phí của các ứng dụng AI giữa các lĩnh vực. GPU của NVIDIA, Blackwell B200 đã vượt trội hơn so với Google Trillium TPU trong các điểm chuẩn cho các nhiệm vụ đào tạo của AI. GPU GPU NVIDIA xuất sắc với sức mạnh thô cần thiết để đào tạo các mô hình lớn, vẫn là một lợi thế cạnh tranh trong nhiều lĩnh vực.

Tuy nhiên, Google không đứng yên. Công ty đã đầu tư chiến lược vào cả phần cứng nội bộ và sự hợp tác bên ngoài. Ví dụ, Google được cho là trong các cuộc đàm phán để cho thuê GPU NVIDIA, Blackwell B200 từ CoreWeave, một nhà cung cấp đám mây chuyên về cơ sở hạ tầng dựa trên NVIDIA. Cách tiếp cận lai này cho thấy Google đang mở rộng khả năng AI của mình trong khi duy trì sự tập trung vào công nghệ TPU của riêng mình. Google tiếp tục đầu tư vào cả các giải pháp nội bộ và bên ngoài phản ánh bản chất phức tạp của việc mở rộng các hệ thống AI trong bối cảnh công nghệ hiện tại. CHIP sẽ hỗ trợ khối lượng công việc điều khiển AI của Google Cloud, cung cấp cho khách hàng tính toán hiệu suất cao mà không cần nâng cấp cơ sở hạ tầng rộng rãi. Khả năng xử lý nâng cao của Ironwood, sẽ rất cần thiết trong việc hỗ trợ công ty của công ty Đám mây AI và các công cụ học máy, chẳng hạn như