Face Hugging telah memperkenalkan aplikasi iOS terkini, huggingsnap href=”https://huggingface.co/blog/smolvlm2″> Smolvlm2 Vision-Language Model , HuggingsNap membolehkan pengguna mengenal pasti objek, membaca teks, dan mentafsirkan adegan tanpa bergantung pada pelayan berasaskan awan, dengan ketara. Ketergantungan
inovasi teras Huggingsnap terletak pada keupayaannya untuk beroperasi sepenuhnya di luar talian, terima kasih kepada model yang padat tetapi berkuasa
SmolVLM2 boleh didapati dalam tiga konfigurasi: 256 juta, 500 juta, dan 2.2 bilion parameter. lokasi, sementara pengguna yang cacat penglihatan mendapat alat kebolehaksesan yang kuat untuk menavigasi persekitaran mereka secara bebas. href=”https://huggingface.co/blog/smolvlm2″> smolvlm2 , memeluk model AI multimodal terkini Face, khususnya direka bentuk untuk persekitaran sumber yang terkawal. Terdapat dalam saiz antara 256 juta hingga 2.2 bilion parameter, SMOLVLM2 berkesan menguruskan tugas multimodal-seperti menafsirkan imej, video, dan input teks-sementara meminimumkan beban pengiraan. GPT-4O dan Gemini Google.
Privasi adalah pusat falsafah reka bentuk Huggingsnap. Kerana semua pemprosesan imej dan pengiraan AI berlaku di dalam negara, data pengguna tidak pernah meninggalkan peranti. Memeluk wajah secara eksplisit menekankan komitmen ini, yang menyatakan dalam dasar privasinya :”Kami menyokong privasi dengan reka bentuk. Dalam privasi dan keterampilan, pengguna harus mempertimbangkan beberapa batasan praktikal. Operasi AI pada peranti boleh menyebabkan peningkatan penggunaan bateri dan pemanasan peranti semasa sesi yang berpanjangan. dan inovasi selanjutnya. Pemaju boleh meneroka model, prestasi ujian, atau menyumbang kepada pembangunan yang berterusan melalui Smolvlm2 Ruang Demo Rasmi Apabila maklum balas pengguna dan penglibatan komuniti berkembang, penambahbaikan selanjutnya dan ekspansi ciri dijangka.