W obliczu zwiększonych wymagań konsumentów danych AI i wskazanych pytań od władz amerykańskich, Fundacja Wikimedia przedstawiła swoją strategię stosowania sztucznej inteligencji w ciągu najbliższych trzech lat, podkreślając, że technologia ta wzrośnie, a nie zautomatyzuje, pracę ludzkiej bazy wolontariatu w Wikipedii.
Plan, Szczegóły Przez dyrektora Wikimedia uczenia się maszynowego chris albon i głowa badań leila zia, presuje ai ai ai ai ai ai narzędzia i narzędzia i usuń i usuń. Przeszkody techniczne dla globalnej społeczności edytującej encyklopedię. Podejście to ma na celu zachowanie ludzkiego osądu centralnego projektu przy jednoczesnym wykorzystaniu sztucznej inteligencji w celu uzyskania wydajności.
To wewnętrzne skupienie sięga jako fundacja, która nadzoruje Wikipedię i powiązane projekty z aktywami o wartości ponad 255 milionów dolarów i ponad 700 pracowników/kontrahentów, nawiguje znaczne siły zewnętrzne. Żarłoczny apetyt modeli AI dla danych szkoleniowych ma mocno opodatkowane serwery Wikipedii.
raporty w środku Automatyczne skrapanie się z użyciem bandwidth Używ prawie 50% w Inne 50% in the In-to In-onw ind Import In bieżącym biegu w górę. Rok, z innymi liczbami wskazującymi boty do 65% kaggle jest popularną społecznością internetową dla naukowców danych. Ta inicjatywa zawiera wstępnie zaparte treści (około 25 GB zamykane) w JSON format, w tym pól jak tytuły artykułów, identy (z wyłączeniem innych mediów, list, tabel, referencji). Dane są oferowane w ramach otwartych licencji, takich jak Bezpłatna licencja dokumentacji GNU Dla programistów sztucznej inteligencji, w tym mniejszych strojów i poszczególnych badaczy, potencjalnie łagodzącego obciążenia serweru. Opiera się to na wcześniejszych umowach Enterprise Wikimedia, takich jak te z . zaledwie kilka dni temu fundacja . Jak donosi wcześniej, dochodzenie wymagało odpowiedzi do 15 maja 2025 r. Na tuzin pytań dotyczących praktyk redakcyjnych i zabezpieczeń przeciwko wpływom zagranicznym. Martin twierdziło, że „Wikipedia zezwala na manipulację informacjami na swojej platformie, w tym przepisanie kluczowych wydarzeń historycznych i biograficznych informacji o bieżących i poprzednich przywódcach amerykańskich, a także innej sprawie dochodzenia narodowego i zainteresowania zjednoczonego Państwa. „ Jego list stwierdził, że w jego biurze zawierało informacje sugerujące„ politykę Wikipedii przynoszą korzyści zagraniczne uprawnienia “i że zarząd„ składa się przede wszystkim z cudzoziemców “, które przewyższają interesy podatników. Argumentował, że „propaganda maskowania, która wpływa na opinię publiczną pod pozorem dostarczania materiału informacyjnego, jest przeciwna„ edukacyjnej “misji Wikimedii”. Źródła zbliżone do Martina wskazywały, że obawy były szczególnie skupione na . Ta oficjalna kontrola jest zgodna z szerszą krytyką postaci takich jak Elon Musk ( Manhattan Institute i grupy aktywistów, takie jak Media Research Center opublikowało analizy, które domagają się bias. Wyznaczone przez redaktorów Wikipedii w 2024 r. Jako ogólnie niewiarygodne dla konfliktu izraelsko-palestyńskiego, wydane a wywiad z grudnia 2024 r. zauważyłem: „To coś, co patrzę, skupiam się na, skupiam się na… ale kiedy próbuję znaleźć problematyczne przykłady,” Preformacje o neutralnym miejscu jest to miejsce, w którym jest miejsce, jest to miejsce. Zobacz politykę. Na tym tle strategia AI Wikimedii zdecydowanie potwierdza centralność ludzkiego osądu. „Społeczność wolontariuszy za Wikipedią jest najważniejszym i wyjątkowym elementem sukcesu Wikipedii”, stwierdza ogłoszenie fundacji, dodając, że AI nie może zastąpić „opieki i zaangażowania w wiarygodną wiedzę encyklopedyczną”. Plan koncentruje się na korzystaniu z sztucznej inteligencji, w której się wyróżnia: automatyzację żmudnych zadań, pomoc w odkrywaniu informacji, ułatwianie tłumaczenia i pomaganie nowym użytkownikom. W szczególności narzędzia AI pomogą moderatorom i patrolcom w przepływach pracy wspierających integralność wiedzy; Pomoc redaktorów znajdują informacje szybciej, pozostawiając więcej czasu na obradę; Zautomatyzować tłumaczenie wspólnych tematów w celu poszerzenia perspektyw; i mentoring skali dla nowych przybyszów. Podstawa przedstawiła podstawowe zasady dotyczące działalności AI, szczegółowo opisane dalej na meta-wiki . Podejście to będzie skoncentrowane na człowieku, priorytetem ludzkiej agencji. Istnieje preferencja stosowania modeli AI open source lub otwartej wagi, dostosowującej się do etosu ruchu. Przejrzystość w sposobie stosowania AI jest kolejnym kluczowym zasadą. Ponadto strategia wymaga dopracowanego podejścia do wielojęzyczności i przestrzegania istniejących wartości i zasad Wikimedii, w tym tych dotyczących prywatność i prawa człowieka , a także jego ogólne Warunki użytkowania . Dyrektor ds. Uczenia maszynowego Chris Albon podkreślił te ramy, stwierdzając: „Wierzymy, że nasza przyszła praca z AI odniesie sukces nie tylko z powodu tego, co robimy, ale jak to robimy.” Poruszanie się politycznymi wiatrem
AI jako asystent, a nie zastępca
Zasady przewodnie dla integracji AI