Google đã mở rộng dòng sản phẩm mô hình Gemini AI của Song Tử với Flash 2.5, một mô hình được xây dựng có mục đích cho độ trễ thấp hơn, hiệu suất hợp lý và hiệu quả chi phí. Flash được thiết kế cho các tác vụ tần số cao như tóm tắt các tài liệu, chú thích hình ảnh và phân loại dữ liệu, trong đó khả năng đáp ứng quan trọng hơn lý luận phức tạp hoặc lưu loát sáng tạo. href=”https://cloud.google.com/blog/products/ai-machine-learning/gemini-2-5-pro-flash-on-vertex-ai”target=”_ blank”Mặc dù nó có chung kiến ​​trúc và cửa sổ bối cảnh 1 triệu với Gemini 1.5 Pro, Flash được tối ưu hóa để phản hồi thời gian thực và triển khai chia tỷ lệ. Hệ thống linh hoạt này cung cấp cho các nhóm khả năng phân bổ tính toán chính xác hơn, cân bằng độ chính xác và chi phí tùy thuộc vào nhiệm vụ. Flash đã được ra mắt trong sự cô lập. Nó theo sau sự ra đời gần đây của Gemini 2.5 Pro, mô hình lý luận cao cấp của Google, nhắm vào các nhiệm vụ phức tạp hơn như phân tích nghiên cứu, tạo mã tác nhân và hỗ trợ quyết định. Google cho biết 2.5 Pro áp dụng xác minh logic nhiều bước trước khi tạo ra kết quả, một cách tiếp cận giúp tăng đáng kể độ tin cậy trong các kịch bản cổ phần cao. Điểm chuẩn cho thấy 2,5 Pro đạt được độ chính xác 92,0% trên bộ dữ liệu AIME 2024, vượt xa OpenaiT Mã thông báo đầu ra. Ngược lại, Flash nhằm hỗ trợ các nhu cầu AI thời gian thực ở quy mô, lý do đối với các doanh nghiệp chạy hàng triệu truy vấn mỗi ngày trên các công cụ hướng tới khách hàng và tự động hóa phụ trợ. Suy nghĩ

DNA của flash có thể được truy trở lại suy nghĩ flash của Song Tử 2.0, được giới thiệu vào tháng 12 năm 2024 như một mô hình thử nghiệm làm cho các bước lý luận của nó hiển thị cho người dùng. Suy nghĩ flash có chế độ tư duy mới lạ”và hỗ trợ đầu vào đa phương thức từ việc ra mắt, một phản hồi cho các mô hình lý luận O1 sớm của Openai, ban đầu thiếu hỗ trợ đầu vào hình ảnh. href=”https://x.com/jeffdean/status/1869789813232341267″Target=”_ Blank”> Jeff Dean nói trên X , nhà khoa học trưởng tại Google DeepMind, về bản phát hành. Ông nói thêm, chúng tôi thấy kết quả đầy hứa hẹn khi chúng tôi tăng tính toán thời gian suy luận.”Flash doesn không hồi sinh giao diện chế độ tư duy trực tiếp, nhưng nó tiếp tục dòng dõi bằng cách tập trung vào hiệu suất nhanh chóng, nhanh chóng với các cải tiến lý luận tùy chọn thông qua API Gemini. Target=”_ Blank”> Tài liệu API Gemini , duy trì tính liên tục trên hệ sinh thái Gemini ngay cả khi các tính năng cụ thể phát triển. Câu 3 2025. Động thái này mở ra cánh cửa cho việc áp dụng rộng hơn giữa các lĩnh vực được quy định như tài chính, chăm sóc sức khỏe và các dịch vụ của chính phủ. Các chip thế hệ thứ bảy tự hào lên tới 42,5 exaflops của tính toán. Các máy gia tốc tùy chỉnh này dự kiến ​​sẽ tăng khối lượng công việc suy luận trên các nền tảng AI của Google. Tuy nhiên, tính toán lớn như vậy đặt ra các câu hỏi về mức tiêu thụ năng lượng và hiệu quả hoạt động, đặc biệt là đối với các hệ thống AI có nghĩa là nhẹ và tiết kiệm chi phí. Google mô tả Gemini 2.5 Flash là thử nghiệm,”và chưa công bố các báo cáo kỹ thuật hoặc an toàn đi kèm. Đây là một phần của xu hướng đang phát triển trong đó Google đã vận chuyển các mô hình AI mới hơn trước khi xuất bản tài liệu an toàn tương ứng, làm tăng mối lo ngại về tính minh bạch, đặc biệt đối với các mô hình nhằm triển khai rộng rãi. Google, giống như những người chơi khác trong cuộc đua AI thế hệ, đang tránh xa cách tiếp cận”một mô hình cho mọi thứ”và hướng tới các hệ sinh thái của các công cụ được tối ưu hóa. Trong khi Gemini 2.5 Pro đạt được trần về mặt lý luận và độ chính xác, Flash là một tùy chọn có nền tảng, sẵn sàng sản xuất cho các nhóm có giá trị độ tin cậy ở tốc độ. Nếu không có điểm chuẩn công khai hoặc tiết lộ kỹ thuật, nó rất khó để đánh giá cách thức xếp chồng lên các mô hình nhẹ hơn từ các đối thủ cạnh tranh như Openai (O3-Mini), Nhân học (Claude Instant) hoặc XAI (Grok Mini). Những gì chúng ta biết là Flash được xây dựng để thực hiện dưới áp lực, nơi có khối lượng, thời gian phản hồi và giới hạn ngân sách là những hạn chế chính. Bởi vì trong ngày hôm nay, AI AI, tốc độ không còn đủ, các hệ thống đằng sau nó cũng phải đứng lên để xem xét kỹ lưỡng.

Categories: IT Info