X rozszerza swoją funkcję notatek z crowdsourcingu poza sprawdzeniem faktów w kuracja treści. Platforma mediów społecznościowych ogłosiła w czwartek nowy program pilotażowy, który wykorzysta unikalny „algorytm pomostowania” w celu identyfikacji i podkreślenia postów szeroko lubianych przez użytkowników z różnych perspektyw.
Ten eksperyment, ogłoszony za pośrednictwem oficjalnego konta notatek społeczności X, ma na celu odkrycie „pomysłów, spostrzeżeń i opinii, które łączą perspektywy”. Przetwarza tę samą logikę, która znajduje konsensus w sprawie sprawdzania faktów, sygnalizując głębszą strategię osadzania społeczności i systemów AI w rdzeniu platformy.
poza sprawdzaniem faktów: nowa misja notatek społeczności
w znacznym ewolucji jego narzędzia moderacji flagowego, X jest rozprzestrzenianie podkładu podkładu społeczności, aby wykroczyć misję pierwszej misji debUnking dezinformacja. Nowy program pilotażowy, ogłoszony 24 lipca, ma na celu wykorzystanie systemu nie tylko jako osłony obronnej przeciwko kłamstwom, ale jako proaktywne narzędzie do wykrywania treści. Sercem jest „algorytm pomostowy”, system zaprojektowany w celu znalezienia konsensusu wśród osób, które zazwyczaj mają przeciwne poglądy. Zamiast po prostu zgodzić się, że post wprowadza w błąd, celem jest teraz znalezienie postów, które użytkownicy w spektrum ideologicznym znajdują wnikliwe lub cenne.
Uwagi społeczności pokazują, gdy są pomocni przez osoby, które normalnie się nie zgadzają. Co by było, gdybyśmy mogli zrobić to samo dla postów, rozpoznając posty lubią ludzi, którzy normalnie się nie zgadzają? Od lat słyszeliśmy prośby o to od lat, a my zaczynamy… pic.twitter.com/itrgwij2ve -notatki społecznościowe (@CommunityNotes) June 5, 2025 This expansion into content curation follows closely on the heels of another major enhancement to Społeczność zauważa ekosystem. 1 lipca X zaczął pilotować „AI AI Note Writer API”, który umożliwia modele AI, w tym własne Grok, generować początkowe szkice notatek dotyczących sprawdzania faktów. Te generowane przez AI szkice są następnie wysyłane do tej samej kolejki, co ludzie napisane przez ludzi do weryfikacji przez wolontariuszy. Firma podkreśliła, że ostateczna decyzja pozostaje wśród ludzi, z ogłoszeniem „AI pomagając ludziom. Ludzie nadal odpowiedzialni”. , którzy razem, te dwie inicjatywy ujawniają wyrafinowaną, podwójną strategię zarządzania platformą, która mocno opiera się na hybrydowym modelu ludzkim. Podejście to odzwierciedla pojęcia szczegółowe w najnowszy artykuł badawczy Od X Staff and University Academics. Artykuł opowiada się za stworzeniem „cnotliwej pętli”, w której AI zapewnia skalę w celu rozwiązania ogromnych ilości treści, podczas gdy dopracowana informacja zwrotna od zróżnicowanej społeczności ludzkiej nie tylko weryfikuje produkcję, ale aktywnie poprawia przyszłe wyniki AI: proces badaczy termin na uczenie się wzmocnienia od społeczności (RLCF).
Przemysł następuje w stosunku do kombinezonu META. Strategia
X jest częścią znacznie większego trendu branżowego. Główne platformy coraz częściej przyjmują moderację crowdsourcingową, postrzegając ją jako bardziej skalowalną i potencjalnie mniej stronniczą alternatywę dla tradycyjnych metod. Na przykład Meta agresywnie podąża podobną ścieżką.
W marcu 2025 r. Meta zaczął testować własny system notatek w społeczności na Facebooku, Instagramie i wątkach globalnych zasad dotyczących zasad INSTAGRAM i META, JO JO w styczniu, aby zakończyć swój program zewnętrzny w faktach w kraju. Niedokładność, przyznając: „Uważamy, że od jednego do dwóch na 10 z tych działań mogło być błędami”. Celem było zmniejszenie błędów. Mark Zuckerberg, dyrektor generalny Meta, przyznał kompromisy, stwierdzając: „Zajmiemy mniej złe rzeczy, ale zmniejszymy również liczbę postów i konta niewinnych ludzi, które przypadkowo zdejmujemy.”
Jednak ta zmiana nie jest jeszcze globalna. Nicola Mendelsohn, szef globalnego biznesu Meta, wyjaśniła ostrożne podejście firmy, mówiąc: „W tej chwili nic nie zmienia się na całym świecie; nadal pracujemy z sprawdzającymi faktyczną globalnie”. Ma to w dużej mierze zapewnienie zgodności z surowszymi przepisami w innych krajach, takich jak UE Ustawa o usługach cyfrowych.
AI, niespójność i „czynnik piżma”
Pomimo rosnącego entuzjazmu branży, systemy te są pełne wyzwań. Integracja sztucznej inteligencji z potokami sprawdzania faktów wprowadza znaczące ryzyko „halucynacji”, w których modele z pewnością wytwarzają informacje. Może to stworzyć przekonujące, ale niebezpiecznie fałszywe notatki, przytłaczające ludzkie recenzenci.
Sam system notatek społecznych spotkał się z trwałą krytyką za powolność i niespójność. Wiele wprowadzających w błąd postów nigdy nie otrzymuje notatki ani nie otrzymuje jednej dopiero po tym, jak treść stanie się popularna. Skuteczność systemu jest również powiązana z nieprzewidywalnym charakterem właściciela X, Elona Muska.
Musk oferował sprzeczne poglądy na temat tej funkcji. Kiedyś chwalił to jako „niesamowite”, ale później stwierdził: „Notatki społecznościowe są coraz częściej walczące przez rządy i dziedziczne media”, po tym, jak jego własne stanowiska na temat polityki ukraińskiej zostały poprawione. Ta niekonsekwencja podkreśla napięcie systemu dążącego do obiektywności, a jednocześnie kontrolowana przez pojedynczą, otwartą osobę.
W miarę upływu tego nowego eksperymentu pozostaje główne pytanie: czy może z powodzeniem rozszerzyć zakres notatek społeczności bez wzmocnienia jej istniejących wad? Sukces lub porażka tego pilota może ustalić nowy standard moderacji i odkrycia treści, ale ryzyko błędu jest znaczne.