YouTube po cichu złagodził zasady dotyczące moderacji treści, instruując recenzentów, aby zezwalają na filmy zawierające mowę nienawiści i dezinformację, jeśli treść jest uważana za „interes publiczny”. Wcześniej nieujawniona zmiana, wdrożona w grudniu, podnosi próg materiału łamania reguł w jednym filmie od jednej czwartej do połowy czasu wykonawczego.

dla użytkowników, oznacza to większe prawdopodobieństwo napotkania kontrowersyjnych i potencjalnie szkodliwych treści, które platforma byłaby wcześniej usunięta. Przeniesienie to podobna decyzja Meta o zmniejszeniu programu sprawdzania faktów w USA, umacniając tendencję w całym branży w kierunku bardziej dopuszczalnych standardów treści. Rzecznik YouTube wyjaśnił, że dostosowanie było częścią procesu rozwijającego się, stwierdzając, że cel firmy pozostaje „ochrona bezpłatnej ekspresji na YouTube, jednocześnie łagodząc rażące szkody.”

Niezbędniejsza standarda dla wartości słownej szkodliwej treści

Pod nowymi wewnętrznymi wskazówkami są zachęcani do umiarkowania widea. Materiały szkoleniowe sprawdzone przez reporterów zilustrowały politykę za pomocą rzeczywistych przykładów. Jeden film, który wykorzystał lunkę ukierunkowaną na osobę transpłciową, mogło pozostać w Internecie, ponieważ było to pojedyncze naruszenie w większej dyskusji politycznej.

Inne wideo z policjantami o tytule infamcyjnym, które zostały również udostępniane, z YouTuru, a także wartość jest większa niż jej potencjał szkody. Definicja „interesu publicznego” platformy jest ekspansywna, obejmująca wszystko, od wyborów i ideologii politycznych po rasę i płeć, dystansując firmę od bardziej agresywnych działań egzekwowania podczas pandemii Covid-19.

Przemysł obrotowy od mowy

odzwierciedla rozległą strategiczną realizację strategiczną. Ten ruch pojawia się, gdy firma macierzysta Google stoi w obliczu dwóch głównych procesów antymonopolowych od Departamentu Sprawiedliwości, a niektórzy analitycy postrzegają zrelaksowaną moderację jako próbę obniżenia profilu politycznego firmy. Jednak podejście to koliduje z międzynarodową presją regulacyjną, ponieważ UE przygotowuje potencjalną grzywnę o wartości miliarda dolarów przeciwko X w przypadku niepowodzeń moderacji treści.

Jest również sprzeczne z wymaganiami zwolenników bezpieczeństwa, którzy niedawno protestowali poza biurem New York w Nowym Jorku w sprawie szkód online dla dzieci. Własna polityka Meta została mocno skrytykowana przez jego niezależną radę nadzorczą, która opisała wdrożenie jako „ogłoszone pośpiesznie, w odejściu od regularnej procedury” i pozbawione odpowiedniego przeglądu praw człowieka.

Ta zmiana w branży jest dodatkowo komplikowana przez rosnące poleganie na automatyzacji. Podczas gdy Tiktok zwolnił ludzkich moderatorów, aby oprzeć się na sztucznej inteligencji, Meta planuje poradzić sobie z do 90% swoich przeglądów ryzyka produktu, przeniesienie, którego ostrzegł, że były dyrektor wykonawczy miałby poważne konsekwencje.

Categories: IT Info