Pinatibay ng Google ang diskarte sa artipisyal na intelihensiya, na inilipat ang malakas na Gemini 2.5 Pro at 2.5 na mga modelo ng flash sa pangkalahatang pagkakaroon para sa paggamit ng produksyon habang sabay na pinalawak ang portfolio nito na may bago, epektibong modelo na nagngangalang Gemini 2.5 Flash-Lite. Ang kumpanya ay nagtatag ng isang malinaw na three-tiered na pamilya ng produkto ng produkto, isang makabuluhang hakbang na idinisenyo upang bigyan ang mga developer ng isang mahuhulaan at naaangkop na hanay ng mga pagpipilian na nagbabalanse ng pagganap, bilis, at gastos. Sa isang Post sa keyword, ang opisyal na blog ng Google , Senior Director Tulsee Doshi na naka-frame na diskarte, na nagpapaliwanag ng layunin ay ang pagtalikod ng isang”pamilya ng hybrid na mga modelo””Pareto Frontier of Cost and Speed.”

src=”data: imahe/svg+xml; nitro-empty-id=mtyzodoxmjy4-1; base64, phn2zyb2awv3qm94psiwidagmti4mcaxnda4 IiB3AWR0AD0IMTI4MCIGAGVPZ2H0PSIXNDA4IIB4BWXUCZ0IAR0CDOVL3D3DY53MY5VCMCVMJAWMC9ZDMCIPJWVC3ZNPG==”>

Isang modelo para sa bawat misyon: pro, flash, at flash-lite href=”https://ai.google.dev/gemini-api/docs/models/gemini”target=”_ blangko”> opisyal na dokumentasyon ng Google para sa mga nag-develop . Sa tuktok, ang Gemini 2.5 Pro ay nakaposisyon para sa’maximum na katumpakan ng pagtugon at pagganap ng state-of-the-art,’ginagawa itong engine para sa pinaka-kumplikadong pag-coding, pagsusuri, at mga gawain ng ahente. Ang mga panloob na benchmark ay nagpapakita na nangunguna sa mga mahirap na domain tulad ng matematika at pag-edit ng code. Ang hierarchy ay hindi palaging mahigpit na linear, gayunpaman; Sa isang kilalang nuance mula sa sariling pagsubok ng Google, ang modelo ng flash na may pag-iisip na pinagana ay talagang naipalabas ang mas malakas na modelo ng pro sa isang tiyak na benchmark ng pagkuha ng long-context, na nagmumungkahi ng dalubhasang pag-optimize sa loob ng arkitektura. Magagamit na ngayon sa Preview, inilarawan ito bilang’pinaka-mahusay na modelo ng pagsuporta sa mataas na throughput’para sa mga real-time na aplikasyon tulad ng pag-uuri ng data at pagbubuod sa scale. Sa panahon ng preview phase nito, na nagsimula noong Abril, ang modelo ay nagtampok ng isang nakalilito na sistema ng dual-pricing batay sa kung aktibo ang tampok na pangangatuwiran nito. Tinanggal na ngayon ng Google ang pagiging kumplikado, ang pagtatakda ng isang solong rate ng $ 0.30 bawat milyong mga token ng input at $ 2.50 bawat milyong mga token ng output. Ang istraktura ng pagpepresyo ay karagdagang nilinaw ng gemini API’s’free tier’Ang nakokontrol na AI pangangatuwiran

Ito ay higit pa sa isang simpleng toggle; Ang mga nag-develop ay maaaring magtakda ng isang’badyet ng pag-iisip’ Upang makontrol ang mga mapagkukunan ng computational na ginagamit ng isang modelo para sa pangangatuwiran sa isang per-query na batayan. Ang tampok na ito, na unang ipinakilala sa 2.5 flash preview na pinalawig sa Gemini 2.5 Pro noong Mayo, ay isang pangunahing bahagi ng arkitektura ng pamilya. Ang epekto nito ay nasasalat: pagpapagana ng’pag-iisip’sa gemini 2.5 flash-lite, halimbawa, pinalalaki ang marka nito sa isang pangunahing benchmark ng matematika mula 49.8% hanggang 63.1%, na nagbibigay ng mga developer ng isang pingga upang mapahusay ang kawastuhan kung kinakailangan. Ang kapaligiran na nakapaligid sa paunang paglabas ng serye ng Gemini 2.5. Sa huling bahagi ng Marso, itinulak ng Google ang eksperimentong 2.5 pro model sa lahat ng mga libreng gumagamit lamang araw pagkatapos ng eksklusibong paglulunsad nito sa pagbabayad ng mga tagasuskribi. Ang account sa social media ng kumpanya ay idineklara sa oras na iyon,”Ang koponan ay nag-sprint, ang mga TPU ay tumatakbo nang mainit, at nais naming makuha ang aming pinaka-intelihenteng modelo sa mas maraming mga tao na ASAP.”Inilarawan ito ni Kevin Bankston ng Center for Democracy and Technology sa oras na bahagi ng isang”nakakabagabag na kwento ng isang lahi hanggang sa ilalim ng kaligtasan at transparency ng AI habang ang mga kumpanya ay nagmamadali sa kanilang mga modelo upang ma-market.”Tulad ng nabanggit sa Mga Tala ng Paglabas ng Vertex AI , ang katayuan na ito ay nagpapahiwatig ng mga modelo ay matatag, suportado para sa paggamit ng produksyon, at may mga kasunduan sa antas ng serbisyo. Ang pagbabagong ito mula sa mga pang-eksperimentong sprints hanggang sa isang matatag, tiered, at mahuhulaan na presyo ng pamilya ay nagpapakita ng Google ay nagtatayo ng isang mas matibay na pundasyon para sa malawak na mga ambisyon ng AI, na kung saan ay nasa buong pagpapakita sa kamakailang I/O Conference.

Categories: IT Info