Google opublikował w tym tygodniu wstępną dokumentację dla swojego najnowszego modelu rozumowania Pro Gemini 2.5 Pro, ale ten ruch nastąpił kilka tygodni po tym, jak model został powszechnie dostępny i przyciągnął ostrą krytykę specjalistów ds. Zarządzania AI. Dokument, znany jako „karta modelowa”, pojawił się online około 16 kwietnia, ale eksperci twierdzą, że nie ma krytycznych szczegółów bezpieczeństwa i sugeruje, że Google może nie mieć obietnic przejrzystości dla rządów i organów międzynarodowych.

Kontrowersja wynika z harmonogramu: Gemini 2.5 Pro zaczął rozpocząć wdrożenie podglądu inicjatywnego podsumowania podsumowujących 25 marca (z konkretną eksperymentalną, z konkretną wersją eksperymentalną, z konkretną wersją eksperymentalną, gemini-2.5-pro-exp-03-25, pojawiający się 28 marca,

Towarzysząca karta modelu opisująca oceny bezpieczeństwa i ograniczenia, jednak pojawiła się tylko ponad dwa tygodnie po rozpoczęciu tego szerokiego dostępu publicznego.

Starszy doradca w Center for Democracy and Technology, opisał sześciostronicowy dokument

Brakujące szczegóły i niezaspokojone obietnice

Podstawową troską wyrażoną przez Bankstona jest brak szczegółowych wyników z kluczowych ocen bezpieczeństwa, takie jak„ czerwone drużyny “, które mają odkryć, czy AI może zostać poproszone do generowania szkodliwych treści, takich jak instrukcje dotyczące tworzenia BIOWAP. Pominięcia mogą oznaczać, że Google „nie zakończyło testów bezpieczeństwa przed wydaniem swojego najpotężniejszego modelu” i „nadal nie zakończyło tego testowania nawet teraz” lub że firma przyjęła nową zasadę wstrzymywania kompleksowych wyników, dopóki model nie zostanie uznany za ogólnie dostępny.

Inni eksperci, w tym Petera Wildeford i Thomas, wyróżniała brak wyników dla braku konkretnych wyników, lub szczegółowe wyniki w zakresie oceny do oceny Und Safant Under Own Owne. Framework (FSF), pomimo użycia karty wspomnianej o procesie FSF.

Takie podejście wydaje się niezgodne z kilkoma publicznymi zobowiązaniami podjęty przez Google dotyczącą bezpieczeństwa i przejrzystości AI. Należą do nich obietnice wykonane na lipca 2023 r. Białe spotkanie Białego Domu Aby opublikować szczegółowe raporty dla potężnych nowych modeli, Adhere to the G7 Code Code Codeed Of. W październiku 2023 r., A obietnice złożone na szczycie bezpieczeństwa w Seulu AI w maju 2024 r.

Thomas Woodside z Projektu Secure AI wskazały również, że ostatnia dedykowana publikacja Google na temat niebezpiecznych testów zdolności sięga do czerwca 2024 r., Kwestionując zaangażowanie firmy w regularne aktualizacje. Google nie potwierdził również, czy GEMINI 2.5 Pro zostało przesłane do amerykańskich instytutów bezpieczeństwa AI w celu oceny zewnętrznej przed wydaniem podglądu.

Pozycja i zawartość karty Model

href=”https://storage.googleapis.com/model-cards/documents/gemini-2.5-pro-preview.pdf”target=”_ puste”> karta modelu oferuje pewne spostrzeżenia. Google określa swoją politykę: „Szczegółowy raport techniczny zostanie opublikowany raz na wydanie rodziny modelu, a następny raport techniczny wydany po powszechnie udostępnionym serii 2,5.”

Dodaje, że oddzielne raporty na temat „Niebezpiecznych oceny zdolności” będą następujące „w regularnych kadencjach”. Google wcześniej stwierdził, że najnowsze Gemini przeszło „Testy przedpremierowe, w tym wewnętrzne oceny rozwoju i oceny zapewnienia, które zostały przeprowadzone przed wydaniem modelu.„

Opublikowana karta potwierdza, że ​​GEMINI PRO BUDULS na mieszaninie ekspresji (MOE) architektury transformatora (MOE), celem projektu dla wydajności przez selektywne aktywację modelu. Podaje szczegółowo 1 milion tokenów okno kontekstu wejściowego i limitu wyjściowego tokena 64K, wraz z jego szkoleniem w zakresie różnorodnych danych multimodalnych z filtrem bezpieczeństwa wyrównanym z zasadami AI.

Karta zawiera testy wydajności (uruchamianie ograniczeń „Gemini-2,5-Pro-Exp-03-03″), pokazując wyniki konkurencyjne 2025. IT ADPOMELLICTIONS IT LIKALNOŚĆ ROZPIECZNIKA LIKALNOŚCI POTRZEBAJĄCE POTRZEBACJI. „Halucynacje” i ustala granice wiedzy na temat stycznia 2025 r. Podczas nakładania procesów bezpieczeństwa obejmujących wewnętrzne recenzje (RSC) i różne łagodzenia oraz wykazujące zautomatyzowane ulepszenia w zakresie bezpieczeństwa w stosunku do Gemini 1.5, potwierdza „nadmierne refuzje” utrzymujące się jako ograniczenie.

w branży wyścigowe? Sandra Wachter, profesor w Oxford Internet Institute, wcześniej