Meta’s algoritme voor het identificeren van schadelijke inhoud markeerde ten onrechte zijn missie,’de wereld dichter bij elkaar brengen’, wat een extreem hoge correlatie aantoont tussen’Meta’en het concept van een’terroristische organisatie’.

De incident leidde tot het snelle ontslag van Sebastian Carlos, een nieuw aangenomen medewerker die de opdracht kreeg om het algoritme te herzien, wat ethische en technische vragen opriep over de rol van AI bij het modereren van inhoud, zoals hij vertelt in een blogpost.

Een gedurfde herziening van contentmoderatie

De controverse begon toen ontwikkelaar Sebastian Carlos zich in zijn eerste week bij Meta’s’Harmful Content Detection’-team voegde als nieuwe medewerker. Ze waren belast met het verbeteren van de efficiëntie en nauwkeurigheid van Meta’s contentmoderatiesystemen en identificeerden aanzienlijke tekortkomingen in het bestaande algoritme.

Carlos stelde een radicale herschrijving voor met Prolog, een programmeertaal die bekend staat om zijn vermogen om symbolisch redeneren en complexe relaties aan te pakken. Het declaratieve karakter van Prolog maakte het bijzonder geschikt om de genuanceerde definities van schadelijke inhoud te analyseren.

Om het contextuele begrip van het algoritme te versterken, omvatte de revisie diverse datasets, waaronder Wikipedia, religieuze teksten en encyclopedieën. Met deze veelzijdige aanpak wilde Carlos culturele en contextuele inclusiviteit garanderen. Deze aanpak vereiste echter ook uitgebreide computerbronnen.

Gerelateerd: Zuckerbergs stap om feitencontrole te stoppen geprezen door Trump en Musk, critici geschokt

Carlos legt uit hoe Meta’s interne kostenstatistiek, op humoristische wijze aangeduid als Er werd een beroep gedaan op “Guatemala Years” (equivalent aan het BBP van Guatemala) om de rekenkosten te rechtvaardigen.

Het vernieuwde algoritme is ontworpen om dagelijks miljoenen berichten te verwerken en de inhoud ervan te analyseren tegen een zeer gedetailleerde morele topologie Volgens Carlos was het doel om een ​​onbevooroordeeld systeem te creëren dat in staat was om schadelijk materiaal nauwkeurig te categoriseren en dat het systeem zonder vooringenomenheid functioneerde en strikt werkte volgens de regels die het moest volgen.

Wanneer AI naar binnen keert

Tijdens de eerste grote testrun markeerde het bijgewerkte algoritme de missie van Meta als schadelijke inhoud.

Debugging onthulde nee fouten in In plaats daarvan identificeerde de geavanceerde analyse van het systeem een ​​hoge correlatie tussen de term ‘Meta’ en uitdrukkingen die verband hielden met ‘terrorisme’ en ‘bedrijfsoverschrijding’. De onverwachte uitkomst benadrukte de uitdagingen van het trainen van AI-systemen om te navigeren door dubbelzinnige concepten als moraliteit en schade.

Zoals Carlos schrijft, leidde de gemarkeerde verklaring tot onmiddellijke interne discussies. Sommige ingenieurs prezen de nauwkeurigheid van het algoritme, terwijl anderen zich zorgen maakten over de mogelijke public relations-effecten. Een senior manager zei naar verluidt tegen Carlos:”Kijk, dit is… indrukwekkend, maar we kunnen onze OKR’s niet op deze manier halen.”Daarmee benadrukte hij de spanning en de groeiende kloof tussen technische nauwkeurigheid en organisatorische prioriteiten.

De gevolgen: ethiek en geheimhoudingsverklaringen

Het incident escaleerde toen Carlos zijn bevindingen presenteerde tijdens een teamvergadering. Ondanks dat hij de logica achter de beslissingen van het algoritme demonstreerde, stuitte het werk van de medewerker op weerstand Kort daarna werd hij ontslagen en werd hem gevraagd een ‘dubbele NDA’ te ondertekenen, een obscuur juridisch mechanisme dat was ontworpen om strikte vertrouwelijkheid af te dwingen.

Een dubbele NDA, ook bekend als een bilaterale of wederzijdse NDA is een juridisch bindende overeenkomst waarbij beide betrokken partijen vertrouwelijke informatie aan elkaar bekendmaken en overeenkomen die informatie tegen verdere openbaarmaking te beschermen.

Carlos schrijft dat zijn advocaat suggereert dat dergelijke afspraken elkaar teniet kunnen doen, waardoor de werknemer zijn ervaringen publiekelijk kan bespreken. Terugkijkend op zijn ontslag schrijft hij:”Gezien het feit dat ze mij hebben ontslagen omdat ik enkele waarheden heb verteld, denk ik dat ik het hele verhaal aan het internet te danken heb.”

De rol van AI met mate

De tools voor contentmoderatie van Meta zijn een integraal onderdeel van het beheer van de enorme hoeveelheid door gebruikers gegenereerde content op zijn platforms. of onvoldoende actie tegen schadelijk materiaal.

Het incident draagt ​​bij aan het onderzoek en roept vragen op over transparantie en verantwoordelijkheid bij AI-besluitvorming. Critici van Meta aan de andere kant zouden het kunnen interpreteren als een teken van efficiëntie van algoritmen

Misschien lijken de praktijken en ideologische vooroordelen van Meta eigenlijk op die van een terroristische organisatie en was het algoritme perfect. Zonder technische details kunnen we er alleen maar naar raden. Maar voor Carlos maakte deze uitkomst een einde aan een toch al wankele start bij de bedrijf.

Zoals Carlos ook schrijft, werd Meta’s augmented reality-bril gebruikt tijdens zijn interviewproces toen een betrokken ontwikkelaar erop vertrouwde om een ​​codeeruitdaging op te lossen en een voorgestelde oplossing van Carlos te corrigeren en te verbeteren. Vervolgens confronteerde hij de interviewer met zijn bevindingen en gebruikte hij dit incident zelfs om een ​​hoger salaris te onderhandelen toen hij bij Meta begon, waardoor hij feitelijk werd gechanteerd.

Afgezien van dit zijverhaal, zet de ervaring van Carlos de onbedoelde gevolgen in de schijnwerpers. van AI-systemen en benadrukt de moeilijkheden bij het programmeren van algoritmen om genuanceerde menselijke concepten zoals schade, moraliteit en veiligheid te begrijpen en toe te passen.

De gemarkeerde missieverklaring kan een anomalie of een precieze match zijn geweest. Hoe het ook zij, Meta zal hier zeker niet op ingaan.

Categories: IT Info