L’algoritmo di Meta per l’identificazione dei contenuti dannosi ha erroneamente contrassegnato la sua dichiarazione di intenti,”avvicinare il mondo”, mostrando una correlazione estremamente elevata tra”Meta”e il concetto di”organizzazione terroristica”.

L’L’incidente ha portato al rapido licenziamento di Sebastian Carlos, un dipendente appena assunto incaricato di revisionare l’algoritmo, sollevando questioni etiche e tecniche sul ruolo dell’intelligenza artificiale nella moderazione dei contenuti, come racconta in un post sul blog.

Un’audace revisione della moderazione dei contenuti

La controversia è iniziata quando lo sviluppatore Sebastian Carlos si è unito al team”Harmful Content Detection”di Meta nella sua prima settimana come nuovo dipendente. Incaricati di migliorare l’efficienza e l’accuratezza dei sistemi di moderazione dei contenuti di Meta, hanno identificato carenze significative nell’algoritmo esistente.

Carlos ha proposto una riscrittura radicale utilizzando Prolog, un linguaggio di programmazione rinomato per la sua capacità di gestire ragionamenti simbolici e relazioni complesse. La natura dichiarativa di Prolog lo ha reso particolarmente adatto per analizzare le definizioni sfumate di contenuti dannosi.

Per rafforzare la comprensione contestuale dell’algoritmo, la revisione ha incorporato diversi set di dati, tra cui Wikipedia, testi religiosi ed enciclopedie. Con questo approccio sfaccettato Carlos mirava a garantire l’inclusività culturale e contestuale. Tuttavia, questo approccio richiedeva anche ampie risorse computazionali.

Correlato: La mossa di Zuckerberg per fermare il fact-checking elogiata da Trump e Musk, critici scioccati

Carlos spiega come la metrica dei costi interni di Meta, scherzosamente chiamata Gli”anni del Guatemala”(equivalenti al PIL del Guatemala) sono stati invocati per giustificare le spese di calcolo.

L’algoritmo rinnovato è stato progettato per elaborare milioni di post ogni giorno, analizzando il loro contenuto rispetto a un topologia morale altamente dettagliata. Secondo Carlos, l’obiettivo era creare un sistema imparziale in grado di classificare accuratamente il materiale dannoso.”Il sistema non era parziale, seguiva semplicemente le regole che gli abbiamo dato”, hanno spiegato.

Quando l’intelligenza artificiale si rivolge verso l’interno

Durante il suo primo importante test, l’algoritmo aggiornato ha contrassegnato la dichiarazione di intenti di Meta come contenuto dannoso.

Il debug non ha rivelato errori nella logica. Invece, l’analisi avanzata del sistema ha identificato un’elevata correlazione tra il termine”Meta”e le frasi associate a”terrorismo”e”eccesso di portata aziendale”. Questo risultato inaspettato ha evidenziato le sfide legate all’addestramento dei sistemi di intelligenza artificiale per affrontare concetti ambigui come moralità e danno.

La dichiarazione contrassegnata ha provocato immediate discussioni interne. Alcuni ingegneri hanno elogiato il rigore dell’algoritmo, mentre altri si sono preoccupati per le potenziali ricadute sulle pubbliche relazioni. Un senior manager avrebbe detto a Carlos: “Non possiamo raggiungere i nostri OKR questo”, evidenziando la tensione e il crescente divario tra precisione tecnica e priorità organizzative.

Le conseguenze: etica e NDA

L’incidente si intensificò quando Carlos presentò il suo risultati durante una riunione del team. Nonostante abbia dimostrato la logica dietro le decisioni dell’algoritmo, il lavoro del dipendente ha incontrato resistenza da parte dei vertici. Poco dopo, è stato licenziato e gli è stato chiesto di firmare un”doppio NDA”, un oscuro meccanismo legale progettato per garantire la massima riservatezza.

Un la doppia NDA, nota anche come NDA bilaterale o reciproca, è un accordo giuridicamente vincolante in cui entrambe le parti coinvolte divulgano reciprocamente informazioni riservate e accettano di proteggere tali informazioni da ulteriori

Carlos scrive che il suo avvocato suggerisce che tali accordi potrebbero annullarsi a vicenda, consentendo al dipendente di discutere pubblicamente la propria esperienza. Riflettendo sul suo licenziamento, conclude che “La verità non sempre è in linea con quella aziendale obiettivi.”

Il ruolo dell’intelligenza artificiale nella moderazione

Gli strumenti di moderazione dei contenuti di Meta sono parte integrante della gestione della grande quantità di contenuti generati dagli utenti sulle sue piattaforme. La dipendenza dell’azienda dall’intelligenza artificiale è stata sia una necessità che una fonte di controversia, con i critici che hanno sottolineato casi di azione eccessiva o insufficiente contro materiale dannoso.

L’incidente si aggiunge all’esame accurato, sollevando dubbi sulla trasparenza e sulla responsabilità nel processo decisionale dell’IA. I critici di Meta, invece, potrebbero interpretarlo come un segno di efficienza degli algoritmi.

Forse le pratiche e i pregiudizi ideologici di Meta somigliano effettivamente a quelli di un’organizzazione terroristica e l’algoritmo era perfetto? Senza dettagli tecnici possiamo solo supporre. Ma per Carlos questo risultato ha messo fine a un inizio già difficile per l’azienda.

Come scrive anche Carlos, gli occhiali per realtà aumentata di Meta erano stati utilizzati durante il suo processo di intervista quando uno sviluppatore coinvolto si è affidato a loro per risolvere un problema sfida di codifica, correzione e miglioramento di una soluzione proposta da Carlos. Ha poi confrontato l’intervistatore con le sue scoperte e ha persino utilizzato questo incidente per contrattare uno stipendio più alto quando ha iniziato a Meta, ricattandolo di fatto.

A parte questa storia secondaria, l’esperienza di Carlos mette in luce le conseguenze indesiderate dei sistemi di intelligenza artificiale ed evidenzia le difficoltà di programmare algoritmi per comprendere e applicare concetti umani sfumati come danno, moralità e sicurezza.

La dichiarazione d’intenti contrassegnata potrebbe essere stata un’anomalia o una corrispondenza precisa. In ogni caso, Meta sicuramente non approfondirà la questione.

Categories: IT Info