Meta wprowadza rozpoznawanie twarzy do celów bezpieczeństwa, wdrażanie narzędzi opartych na AI w Wielkiej Brytanii, UE i Korei Południowej, aby pomóc w walce z oszustwami i poprawić odzyskiwanie konta.

System, który zaczął testować w październiku 2024 r., Jest zaprojektowany w celu zablokowania fałszywych obrazów z użyciem sławnych obrazów i dostarczenia wideokonistów i dostarczenia weryfikacji selfie dla użytkowników. Technologia rozpoznawania po it zamknij swój ogólny system rozpoznawania twarzy w 2021 r. Ze względu na obawy dotyczące prywatności. src=”https://winbuzzer.com/wp-content/uploads/2024/10/meta-facial-recognition.jpg”>

Firma twierdzi, że ta nowa implementacja koncentruje się ściśle na bezpieczeństwie i nie zatrzymuje danych biometrycznych po użyciu. Meta napisał na swoim blogu w październiku , „Natychmiast usuwamy jakiekolwiek dane twarzy generowane z reklam na to jednorazowe porównanie, niezależnie od tego, czy nasz system znajdzie dopasowanie, a my nie używamy go do jakiegokolwiek innego celu.

AI Meta jest teraz skierowane do oszustwa za pomocą sławnych obrazów

nieuczciwych reklam z fałszywymi poparciem celebrytów od dawna stanowi problem w mediach społecznościowych. Aby zweryfikować zdjęcia profilowe liczb publicznych na platformach meta. Jeśli zapałka zostanie znaleziona i uznana za nieautoryzowanego, AD zostanie automatycznie usunięta.

Wczesne próby rozpoczęły się od niewielkiej grupy danych publicznych w październiku 2024 r., A Meta donosi, że system pomógł szybciej wykryć reklamy oszustwa. Teraz ta funkcja rozszerza się o więcej liczb publicznych w Wielkiej Brytanii i UE, który będzie miał opcję wyboru dodatkowej ochrony.

Weryfikacja selfie wideo dla odzyskiwania konta

Metato Hasła lub oszustwa phishingowe-mogą teraz weryfikować ich tożsamość, nagrywając krótkie selfie wideo. AI następnie analizuje wideo i dopasowuje go do obrazu profilowego użytkownika, aby potwierdzić własność.

Ta nowa metoda ma na celu zastąpienie tradycyjnej weryfikacji rządowej, która może być powolna i podatna na oszustwo. Według Meta selfie wideo są szyfrowane i trwale usuwane po zakończeniu weryfikacji.

Jednak przywrócenie rozpoznawania twarzy-nawet w tej ograniczonej pojemności-wzbudziło obawy wśród zwolenników prywatności, szczególnie w odniesieniu do bezpieczeństwa danych biometrycznych.

obawy dotyczące prywatności i regulacji regulacyjnej. Technologia, szczególnie w regionach o ścisłych przepisach dotyczących ochrony danych, takich jak UE.

Zgodnie z zasadami RODO UE, przetwarzanie danych biometrycznych wymaga wyraźnej zgody użytkownika, a firmy muszą wykazać wyraźne zabezpieczenia, aby zapobiec niewłaściwemu użyciu. Meta stwierdza, że ​​zaangażował się w organy regulacyjne przed uruchomieniem tych funkcji, ale strażnicy prywatności pozostają ostrożne.

Wcześniejsze użycie rozpoznawania twarzy przez metę doprowadziło do wyzwań prawnych, w tym ugody w wysokości 650 milionów dolarów w Illinois w związku z domniemanym naruszeniami biometrycznych przepisów dotyczących prywatności.

podkreślając, że firma podkreśla, że ​​firma podkreśla, że ​​firma podkreśla, że ​​każda reinodukcja, reinodukcja. Biometryczna sztuczna inteligencja może ustalić precedens dla szerszego nadzoru.

Inne firmy technologiczne przyjęły różne podejścia. W maju 2024 r. Microsoft zakazał amerykańskiej policji na narzędzia do rozpoznawania twarzy Azure Openai, powołując się na obawy dotyczące dokładności, uprzedzeń rasowych i braku nadzoru regulacyjnego.

AI błędnie identyfikacji i ryzyka fałszywych pozytywów

w AI w AI. Jego niezawodność.

W maju 2024 r. Kupujący z Wielkiej Brytanii został błędnie oznaczony jako kradzież sklepowy przez system bezpieczeństwa zasilany przez sztuczną inteligencję w domu domowym, co doprowadziło do niepotrzebnego zakazu, zanim firma przyznała się do błędu. Podobnie w 2023 r. A czarne nastolatki zostało błędnie zidentyfikowane przez rozpoznanie twarzy w sklepieniu i zaprzeczono Rink i Dreved. Incydenty podkreślają obawy dotyczące stronniczości AI i niezawodności, podnosząc pytania o to, czy system meta może wywoływać podobne błędy. Firma stwierdziła, że ​​jej sztuczna inteligencja jest wykorzystywana wyłącznie do zapobiegania oszustwom i odzyskiwaniu rachunku-nie egzekwowania prawa lub bezpieczeństwa.

, biorąc pod uwagę szerszą historię błędnych identyfikacji AI, grupy prywatności pozostają ostrożne, w jaki sposób taka technologia może ewoluować.

Opór publiczny na rozpoznawanie twarzy

Poza tym, że publiczne opowiadanie publiczne mogą ewoluować publicznie Nadzór rośnie. W sierpniu 2024 r. Zwolennicy prywatności zorganizowali protest poza Citi Field w Nowym Jorku, kwestionując wykorzystanie uznania twarzy napędzanych przez AI w pokazach bezpieczeństwa stadionu.

Krytycy argumentowali, że takie systemy mogą prowadzić do masowej inwigilacji, funkcjonalnie śledząc osoby bez ich wiedzy lub zgody.

obawy dotyczące przetrwania AI-Drivening. In October 2024, two Harvard students demonstrated how Meta’s Ray-Ban smart glasses could be modified to extract personal data in real time using facial recognition software.

The case demonstrated how wearable AI-powered cameras could be repurposed for unauthorized tracking, intensifying concerns over how easily biometric technology could be exploited.

Meta’s AI Strategy and the Future Weryfikacji biometrycznej

Podczas gdy Meta przedstawia swoje wdrażanie rozpoznawania twarzy AI jako środek bezpieczeństwa, ruch ten sygnalizuje również szersze przesunięcie podejścia do weryfikacji tożsamości.

Firma nie wykluczała rozszerzenia uwierzytelniania opartego na AI w innych obszarach, takich jak zapobieganie oszustwom w e-commerce lub automatycznej weryfikacji dla nowej relacji. Jeśli obecne wdrożenie okaże się pomyślne, może utorować drogę do bardziej szerszego wykorzystania biometrycznej sztucznej inteligencji na platformach meta.

Na razie narzędzia bezpieczeństwa napędzanego AI META pozostają opcjonalne, a firma zapewnia użytkownikom, że wszystkie dane biometryczne są usuwane po użyciu. To, czy to wdrożenie pozostaje wąsko skoncentrowaną funkcją, czy ewoluuje w szerszą wdrożenie, prawdopodobnie zależy od odpowiedzi regulacyjnych i postrzegania publicznego.

Categories: IT Info