Meta kieruje najnowszymi systemami sztucznej inteligencji, serii LLAMA 4, w kierunku tego, co firma określa jako bardziej zrównoważony politycznie punkt widzenia. Wraz z wydaniem modeli LLAMA 4, takich jak Scout i Maverick, szczegółowo opisane 6 kwietnia, Meta skonfrontowała się z postrzegania uprzedzeń politycznych związanych z dużymi modelami (LLMS)-złożoną sztuczną inteligencją wyszkolonych na rozległych danych internetowych w celu zrozumienia i wygenerowania tekstu.
, podczas gdy badań odchylenia AI często podkreśla problemy dotyczące rasy lub płci (A ustalono fakt Omówiono w kręgach akademickich), publiczne oświadczenia meta koncentrują się prosto na postrzeganym skośnie politycznym, kontrastując z tym wspólnym skupieniem badań.
„Jest znane, że wszystkie wiodące LLM miały kwestie z odchyleniem-specyficznie, historycznie pochyliły się od lewej strony, gdy doszło do topii politycznej i społecznej,„ Metana akceptacja w jej akcjach w jego uprzedzeniu. href=”https://ai.meta.com/blog/llama-4-multimodal-intelligence/”target=”_ puste”> Oficjalny blog LLAMA 4 .
według firmy? „Wynika to z rodzajów danych szkoleniowych dostępnych w Internecie.”
To wyjaśnienie towarzyszy określony cel: opracowanie modeli AI przejrzyste na temat braku jednej „poprawnej” perspektywy, zamiast tego dążąc do odzwierciedlenia szeregu widoków. 404 media sugeruje to, że jest to tuning llama 4 do prezentacji „obu bocznych”, możliwe, że to, jak raport spekulował, jak elon MUSK w pozycji, wiąże się to z literackiej pozycji. Ai. Niektóre punkty sprzedaży, takie jak
Meta twierdzi, że rodzina Lama 4 obejmuje określone korekty w celu rozwiązania tych politycznych skłonności. Same modele, w tym wydajny Scout LLAMA 4 i potężny LLAMA 4 Maverick, wykorzystują architekturę mieszanki ekspertów (MOE)-aktywując tylko niezbędne komponenty dla danego zadania-i przetwarzanie obrazów i tekstu natywnie. Zwiadowca Llama 4 zawiera w szczególności 10 milionów tokenów, co pozwala na przetwarzanie kontekstu równoważnego około 7,5 miliona słów jednocześnie. Według własnych raportów Meta, testy wewnętrzne pokazują, że modele te są mniej narażone na rozważanie politycznie podpowiedzi, z wskaźnikami odmowy, które są poniżej 2%, co znacząco spadnie z 7%. Firma twierdzi również, że różnice w odmowie w oparciu o pozorną ideologię użytkownika są obecnie poniżej 1%, co wzmacnia narrację o dążeniu do neutralności. Ulepszone ramy bezpieczeństwa są również częścią pakietu, w tym „ llama strażnik „ do filtrowania szkodliwych i wyjściowych i nowatorskich agencji “(ogólnie ofensywne agencje” (ogólnie Offensywne agencje “(ogólnie ofensywne agencje. Testowanie) System, który wykorzystuje sztuczną inteligencję do symulacji ataków i znalezienia luk związanych z stronniczymi lub szkodliwymi reakcjami. Takie narzędzia są prawdopodobnie integralną częścią zarządzania tonem modelu z wrażliwymi tematami politycznymi. To skupienie na dostosowaniu produkcji LLAMA 4 nie odbywa się w izolacji. Dopasowuje się do szerszej, wysoce dyskutowanej realibracji polityki treści meta w swoich sieciach społecznościowych, które zaczęły się rozwijać wcześniej w 2025 r. W ruchu, który zaskoczył swoich partnerów, Meta ogłosiła, że w styczniu demontaż swojego programu sprawowania faktów w Stanach Zjednoczonych. . href=”https://www.wired.com/story/metas-fact-checking-partners-blindsided/”target=”_ blank”> wired Tuning Lama 4: Meta twierdzi, że zyski neutralności politycznej
Zastosowanie zasad platformy: końce faktów, kontrowersyjna mowa pozwoliła
uzasadniając przestawienie od zewnętrznego sprawdzania faktów, główny globalny polityki Meta Joela Kaplan stwierdził, że wcześniejsze moderacja stała się złożona i błąd. „Podobnie jak wiele z tych wysiłków, rozszerzyły się z czasem do tego stopnia, że popełniamy zbyt wiele błędów, frustrując naszych użytkowników i zbyt często przeszkadzając w wolnym wyrażeniu, które wyznaczyliśmy”-napisał Kaplan, dodając, że wewnętrzne recenzje sugerowały „jeden na dwa z nich z każdej 10 tych działań. Imigracja i tożsamość płciowa. Jak donosi przechwytywanie , wyciekające materiały treningowe wskazywały, że argumentowanie tożsamości LGBTQ+ stanowi„ tożsamość psychiczną “stała się dopuszczalna, religijna, a także religijna i religijna, a także religijne i religijne materiały treningowe wskazują, że politatyczne i religijne”. Dyskurs.”
Ta konkretna zmiana wywołała ostrą wewnętrzną sprzeciw-opisana jako„ Całkowity chaos “i zewnętrzne potępienie grup takich jak
Ta intencjonalna zmiana w kierunku szerszego zakresu ekspresji, nawet jeśli kontrowersyjne lub potencjalnie szkodliwe, tworząc środowisko platformowe, które są polityczne, które są na to, które politycznie zmieniają się w kierunku LLAMA. wdrożony. Czas tych polityki i dostosowań AI przyciąga uwagę z powodu krajobrazu politycznego USA. Ogłoszenia Meta w styczniu nastąpiły po zwycięstwie wyborów Donalda Trumpa, a Trump publicznie oklaskiwać nowy kierunek metalu : „Myślę, że sądzą, że są one. Facebook. ” Wystąpiło to wraz z doniesieniami o po wyborach obiadu między Zuckerberg i Trump i MANINIK OF TUMPER ALLY TO META Decyzja firmy o przeniesieniu zespołów zaufania i bezpieczeństwa do Teksasu została również częściowo sformułowana przez Zuckerberg jako zajęła się obawami dotyczącymi uprzedzeń pracowników. Ruchy te podsyciły spekulacje na temat meta potencjalnie poszukującej przychylności przychodzącej administracji lub dostosowywania się do postrzeganej konserwatywnej krytyki. To postrzeganie zostało wzmocnione przez raporty w kwietniu sugerując, że Zuckerberg zwróciła się do poparcia Trumpa w stosunku do przepisów UE, a pod koniec marca, że UE może złagodzić potencjalne drobne cechy pod względem rynków cyfrowych działających na podstawie dynamiki politycznej. Wewnętrznie firma porusza znaczące zmiany, podkreślające odejście najwyższej klasy AI Research, Joëlle Pineau, skuteczny pod koniec maja. Jej wyjście pochodzi z intensywnej presji konkurencyjnej ze strony rywali, takich jak Deepseek i wewnętrzne dyskusje na temat strategii AI Meta, koncentrując się bardziej na integracji produktu w porównaniu z badaniami podstawowymi. Mniej więcej w tym samym czasie Meta zintegrował swój specyficzny zespół DEI z szerszymi funkcjami HR. leżącą u podstaw rozwoju LAMA 4 są trwałe pytania dotyczące danych wykorzystywanych do jej treningu. Trwające procesy sądowe, z udziałem powodów takich jak komik Sarah Silverman, twierdzą, że meta wyszkoliła swoje modele na ogromnych zestawach danych pirackich książek pochodzących z bibliotek cienia, takich jak Libgen przy użyciu protokołu podziału plików Bittorrent-pokazującego protokoł udostępniania plików, co pokazuje zachowanie pracowników; Jeden inżynier napisał, zgodnie z dokumentami złożonymi w sprawie: „Torrenting z laptopa korporacyjnego [należące do meta] nie wydaje się właściwe.” Dalsze komplikujące sprawy, działanie metareckie Meta mogło spowodować, że firma ponownie przeładowała szkolenie w odległości 30% danych w sposób. Używać „roszczenia. Kontekst ten zwiększa złożoność wyjaśnienia Meta łączącego stronniczość wyłącznie z ogólnym charakterem danych internetowych, podnosząc pytania dotyczące pochodzenia i metod akwizycji danych. Podczas gdy Meta porusza te kontrowersje danych i realizuje korekty błędu AI, jego zdolność do wdrażania takich zmian pozostaje ograniczona. Zwycięzcie sprawdzania faktów innej firmy jest obecnie ograniczone do amerykańskiej próby. Straszniejsze reżimy regulacyjne gdzie indziej, zwłaszcza i Ustawa o usługach cyfrowych (DSA) , narzucić ściślejsze sterowanie. Było to widoczne, gdy Meta AI Chatbots ostatecznie rozpoczęła się w Europie w marcu po znacznych opóźnieniach; Brakuje im kluczowych funkcji, takich jak generowanie obrazu i personalizacja dostępnych w USA ze względu na ograniczenia RODO dotyczące korzystania z danych użytkowników do szkolenia. Ta fragmentacja regulacyjna oznacza, że politycznie zrównoważona lama 4, podobnie jak relaksowana polityka moderacji treści, może przede wszystkim objawiać się w Stanach Zjednoczonych w dającej się przewidzieć przyszłości. Klimat polityczny i dynamika wewnętrzna kształtują strategię Meta
Źródła danych, globalne reguły i ścieżka naprzód