Platforma społecznościowa X Elona Muska idzie w celu zintegrowania sztucznej inteligencji z charakterystyczną funkcją sprawdzania faktów, zauważa społeczność. Firma ogłosiła we wtorek, że pilotuje program, który pozwala chatbotom AI napisać początkowe szkice notatek, które zapewniają kontekst dla potencjalnie wprowadzających w błąd postów. Ten nowy system będzie działał za pośrednictwem interfejsu API „AI Note Writer”, który pozwala programistom podłączyć różne modele AI, w tym własne Grok X, z platformą.
Wprowadzenie AI AI AI AI AI AI AI AI AI AI pomagają ludziom. Ludzie nadal odpowiedzialni.
Od dziś świat może tworzyć pisarzy notatek, którzy mogą zdobyć możliwość proponowania notatek społeczności. Ich notatki wyświetlą się na x, jeśli zostaną pomocy przez ludzi z różnych perspektyw-tak jak… pic.twitter.com/h4qny6vtkw
-notatki społeczności (@CommunityNotes) recent research paper co-authored by X staff and academics from institutions like MIT and Stanford University.
The paper argues for an ecosystem Tam, gdzie AI przyspiesza dostarczanie kontekstu, podczas gdy zróżnicowana społeczność ludzkich oceniaczy służy jako „ostateczny ewaluator i arbiter tego, co jest pomocne.”
Szerszy trend branżowy
Ruch jest częścią większego trendu w branży mediów społecznościowych. Główne platformy coraz częściej przyjmują systemy moderacji crowdsourcingu podobne do notatek społecznościowych, które po raz pierwszy wystrzelił jako BirdWatch w 2021 . Na przykład Meta wprowadza własną wersję na Facebooku, Instagramie i wątkach w Stanach Zjednoczonych od marca.
Ta zmiana nastąpiła po ogłoszeniu w styczniu Meta. błędy.”Powiedział, że celem firmy było lepsze zrównoważenie moderacji z swobodną ekspresją.
Podczas gdy nowe podejście meta jest testowane w Stanach Zjednoczonych, firma postępuje bardziej ostrożnie w innym miejscu. Nicola Mendelsohn, szef globalnego biznesu Meta, wyjaśniła, że na razie „w tej chwili nic nie zmienia się w pozostałej części świata; nadal pracujemy z sprawdzającymi faktyczną globalnie”., Głównie w celu przestrzegania surowszych regionalnych przepisów, takich jak ustawa o usługach cyfrowych UE. Sukces tych systemów opartych na społeczności wywołał również podobne funkcje z tiktok i youtube .
lawina Human-A. Apel integracji AI to potencjał masowej skali i prędkości. Artykuł badawczy z X sugeruje, że zautomatyzowany rurociąg może rozwiązać znacznie większą objętość treści niż system czysto powiększony przez człowieka, radzenie sobie z „długim ogonem” niszowej misinformacji . Celem jest stworzenie „cnotliwej pętli”, w której sztuczna inteligencja generuje notatki i ludzkie informacje zwrotne nie tylko werykuje je, ale także poprawia przyszłe wyniki AI.
Ten proces, który badacze nazywają uczenie się wzmacniające na podstawie informacji zwrotnej społeczności (RLCF), wykorzystuje ocen zróżnicowaną ludzką społeczność do wyszkolenia AI poza prostymi sygnałami prawej lub prawej racji, nauczanie tego jest tak naprawdę pomagając kontekstowi.
Znaczące ryzyko i trwające debaty
Jednak wdrażanie sztucznej inteligencji jako sprawdzania faktów jest obarte ryzykiem. Głównym problemem jest dobrze udokumentowana tendencja dużych modeli językowych (LLM) do „halucynicynatu”, pewnie prezentującej sfabrykowane informacje jako fakt. Może to prowadzić do stworzenia nut, które są przekonujące i dobrze napisane, ale niebezpiecznie niedokładne. Dokument badawczy uznaje to i inne wyzwania, takie jak ryzyko „hakowania przydatności”, w którym sztuczna inteligencja może nauczyć się pisać notatki, które przemawiają do uprzedzeń Ratersów, a nie trzymać się faktów. Kolejnym wyzwaniem jest potencjał przytłoczenia ochotników ludzkich oceniających. Ogromny napływ nut generowanych przez AI może rozcieńczyć uwagę oceniających, co utrudnia dostrzeganie zarówno złych notatek, jak i krytycznej dezinformacji. Te obawy są powtarzane przez byłych kierowników technologii, którzy obserwowali ewolucję tych platform. Jeden były dyrektor Meta, przemawia do NPR o rosnącym zależności od AI w zakresie oceny ryzyka,
czynnik piżma
Trwa debata na temat skuteczności notatek społeczności i często koncentruje się na właścicielu X, Elon Musk. Współpracował systemem jako rewolucyjne narzędzie do dokładności, powiedzenie
Jednak zaledwie kilka miesięcy później, po poprawieniu własnych postów na temat polityki ukraińskiej, twierdził, że system był manipulowany, stwierdzając : „Notatki społeczności są coraz częściej prowadzone przez rządy i starsze media”. Ta niespójność podkreśla nieodłączne napięcie w systemie zaprojektowanym pod kątem obiektywności, ale należące do jednej, otwartej osoby.
Krytycy wskazują, że system może być powolny i niespójny. Badania wykazały, że wiele postów zawierających dezinformację nigdy nie otrzymuje notatki, a kiedy to robią, notatka jest często widoczna tylko przez ułamek ludzi, którzy oglądali oryginalny post. Wprowadzenie sztucznej inteligencji ma na celu rozwiązanie problemów prędkości i skali, ale okaże się, czy może to zrobić bez uszczerbku dla jakości.
Pomimo tych problemów, X podnosi się do eksperymentu AI. Firma planuje przetestować notatki generowane przez AI przez kilka tygodni z niewielką grupą współpracowników. Na podstawie wyników tego pilota X zdecyduje, czy wdrożyć funkcję szersze. Sukces tego modelu hybrydowego może ustalić nowy standard dla moderowania treści online, ale jego awaria może wzmocnić bardzo dezinformację, którą jest zaprojektowany do walki.