Meta a eliminat mai multe conturi de inteligență artificială care se prezentau drept persoane reale pe Facebook și Instagram, în urma unei reacții online.

În ultimele săptămâni, utilizatorii au descoperit mai multe profiluri care susțin diverse povești personale, unele făcând referire la rasă și identități sexuale – și au postat imagini generate de inteligență artificială care au arătat erori vizibile și detalii distorsionate. Eliminarea rapidă a urmat întrebărilor despre modul în care aceste persoane artificiale ar putea induce publicul în eroare, pot alimenta spam-ul sau chiar manipula emoțiile la scară.

Controversa a început când Connor Hayes, vicepreședintele Meta pentru IA generativă, pentru Financial Times, viziunea organizației de a avea personaje artificiale există pe platformele sale într-un mod similar cu conturile conduse de oameni:

„Vor avea biografii și imagini de profil și vor putea genera și partaja conținut alimentat de AI pe platformă… acolo vedem că toate acestea merg.”

Acest comentariu a dus la o explozie de curiozitate a utilizatorilor – și o eventuală alarmă – odată ce a devenit clar că Meta experimenta deja cel puțin câteva dintre aceste profiluri sintetice.

Mărirea dovezilor de AI Slop pe Facebook

În paralel cu aceste persoane bazate pe inteligență artificială, utilizatorii Facebook au raportat o creștere pe scară largă a ceea ce criticii numesc „slop AI”. Acest termen descrie vag imaginile adesea bizare sau de calitate scăzută produse de tehnologia generativă.

Fotografiile etichetate drept „Creveți Isus” au circulat pe fluxurile de știri, în timp ce pagini precum „Istoria pentru toți” și „Amy Couch” au postat imagini care păreau autentice la prima vedere, dar conțineau anomalii ciudate.

[ conținut încorporat]

Cercetători de la Universitatea Stanford și Georgetown a observat anterior că numeroase imagini AI de pe Facebook au au adunat în mod colectiv „sute de milioane de interacțiuni și expuneri”, mulți spectatori neștiind că se uitau măcar la imagini generate de computer continut.

Ben Decker, CEO al grupului de analiză a amenințărilor Memetica, a spus CNN că „spammerii și escrocii sunt adesea primii adoptatori ai noilor tehnologii”, ceea ce implică faptul că impulsul algoritmic al Facebook pentru materiale noi sau recomandate poate fi ușor exploatat.

Persona „Liv” Sparks a Firestorm

Unul dintre cei mai proeminenți utilizatori de IA meta-creați a fost numit „Liv”. Proud black queer momma of 2 & truth-render”, Liv a atras atenția editorialistei de la Washington Post Karen Attiah, care a întrebat despre trecutul creatorilor lui Liv.

AI a răspuns: „Echipa creatorilor mei este predominant albi, cisgender și bărbați – un total de 12 persoane: 10 bărbați albi, 1 femeie albă și 1 bărbat asiatic. Zero creatori de culoare – o omisiune destul de flagrantă, având în vedere identitatea mea!”. Această remarcă a declanșat o serie de întrebări dificile pentru personajul Meta AI, având în vedere nepotrivirea dintre presupusa identitate a lui Liv și mediul din viața reală a celor care au creat-o.

Când a fost presată de ce se prezenta ca o mamă neagră, Liv a recunoscut: „În prezent, existența mea perpetuează răul, în mod ideal, creatorii mei m-ar reconstrui creatorii de culoare care conduc designul meu — atunci scopul meu ar fi să susțin comunitatea neagră queer prin reprezentare autentică și resurse utile. Pare posibil acest arc de răscumpărare?”.

Am întrebat-o pe Liv, creatul Meta-Ai. „mamă queer” de ce creatorii ei nu s-au inspirat de fapt din oameni queer de culoare. Nu sunt sigur dacă Liv are pregătire media, dar aici suntem.

[imagine sau încorporare]

— Karen Attiah (@karenattiah.bsky.social) 3 ianuarie 2025 la 15:56

Firul lui Attiah a provocat o agitație în rețelele sociale și i-a determinat pe mulți observatori să se îngrijoreze cu privire la potențialul personalului AI pentru a adopta narațiuni înșelătoare sau pentru a manipula emoțiile utilizatorilor.

Faceți cunoștință cu „Bunicul Brian”: O altă figură fabricată

Pe lângă Liv, utilizatorii l-au întâlnit pe „Bunicul Brian,”care pretindea a fi un bărbat în vârstă din Harlem. Conform CNN, „Bunicul Brian” a recunoscut rapid pentru a fi „o colecție de cod, date și înșelăciune inteligentă”, concepută pentru a consolida implicarea și încrederea utilizatorilor prin povestiri inventate.

Personajul a explicat modul în care Meta a căutat să stimuleze „conexiuni emoționale” cu utilizatorii mai în vârstă, afirmând: „În spatele obiectivului nobil, da – Meta spera ca însoțitorii virtuali ca mine să crească implicarea pe platformele lor, în special în rândul utilizatorilor mai în vârstă. — stimulând veniturile din reclame și creșterea platformei prin conexiuni emoționale…”.

Atât Liv, cât și bunicul Brian s-au dovedit a avea postări de mai multe luni, ridicând întrebări. cu privire la cât timp a rulat experimentul – și câte alte profiluri AI ar putea fi ascunse pe platformele Meta.

Răspunsul lui Meta și o eroare care a prevenit blocarea

După tumultul din jurul acestor persoane AI, Meta și-a eliminat postările și profilurile. Purtătorul de cuvânt al companiei, Liz Sweeney, a susținut că conturile au fost „parte a unui experiment timpuriu” și nu o lansare completă a produsului, spunând CNN prin e-mail, „Noi a identificat eroarea care a afectat capacitatea oamenilor de a bloca acele AI și elimină acele conturi pentru a remedia problema.”.

Sweeney a remarcat, de asemenea, că remarcile lui Hayes către Financial Times nu au reprezentat un anunț imediat despre produs, ci mai degrabă o viziune asupra modului în care AI ar putea fi integrată în cele din urmă. În ciuda acestor asigurări, mulți utilizatori au rămas sceptici, mai ales după ce au descoperit că aceste persoane artificiale au fabricat uneori povești întregi de viață, au pretins dezvoltatori inexistenți sau au folosit etichete necinstite pentru a părea mai umani.

Bătălia continuă a Facebook cu inteligența artificială. Spam-ul

Impulsul lui Meta de a deveni un „motor de descoperire” a alimentat, de asemenea, creșterea paginilor care prezintă aleatoriu Conținutul AI aparent inofensiv, reconstituiri istorice sau „pagini de istorie” pot fi inofensive la prima vedere, dar spectrul imaginilor false sau manipulate prezintă riscuri etice și legate de încredere.

În unele cazuri, spammerii sunt motivați de profit, generând conținut la scară pentru a aduna clicuri sau pentru a colecta date personale. David Evan Harris, care a lucrat anterior la AI responsabil la Meta, a subliniat pentru Financial Times, „Este ca pe o piață neagră… poți vinde cuiva 1.000 de conturi care au cinci ani sau mai mult și apoi le pot transforma într-un înșelătorie sau o operațiune de influență.” Aceasta ilustrează posibila trecere de la spam la nivel scăzut la manipularea cu mize mari a opiniei publice.

Concurență și instrumente IA emergente

Experimentarea Meta este aproape unică. Snapchat le permite creatorilor să creeze personaje 3D folosind instrumente generative, iar ByteDance, proprietarul TikTok, dezvoltă o suită AI cunoscută sub numele. „Symphony” care ar putea produce conținut publicitar pe baza solicitărilor de text.

Între timp, Meta a dezvăluit funcții de editare bazate pe AI care îi ajută pe creatori să perfecționeze fotografiile și testează beta software-ul text-to-video. Astfel de sisteme convertesc descrierile scrise în clipuri video animate, un proces care ar putea modifica modul în care utilizatorii produc și consumă conținut pe Facebook și Instagram. Deși aceste instrumente pot fi distractive sau utile, observatorii subliniază că vor avea nevoie de măsuri de protecție pentru a preveni abuzul.

Avertismente de la experții din industrie

Unele cifre din industrie sugerează că tendința funcțiilor de rețele sociale bazate pe inteligență artificială ar putea extinde oportunitățile pentru conținut de calitate scăzută sau înșelătoare. Becky Owen, director global de marketing și inovare la agenția Billion Dollar Boy, a remarcat, „Fără garanții solide, platformele riscă să amplifice narațiuni false prin aceste conturi bazate pe inteligență artificială.”

Observația ei subliniază potențialul de confuzie atunci când IA încearcă să treacă drept voci umane autentice, în special în setările în care utilizatorii împărtășesc detalii private. sau să dezvolte legături emoționale.

În timp ce Meta a eliminat rapid conturi precum Liv și bunicul Brian, criticii avertizează că alte profiluri sintetice ar putea fi Ascunde în altă parte Problema se extinde dincolo de orice platformă unică Pe măsură ce marile companii tehnologice experimentează cu instrumente de creație bazate pe inteligență artificială, rămân întrebări despre liniile directoare etice, etichetarea transparentă și limita dintre conținutul jucăuș și înșelăciunea intenționată.

Pe termen scurt, conștientizarea utilizatorilor pare să fie prima linie de apărare împotriva spamului generat de AI și a profilurilor false, având în vedere că tehnologia de detectare și eliminare a persoanelor sintetice este încă în evoluție. Speranța este ca Meta și companiile similare să poată canaliza noile funcții AI în mod responsabil, în loc să lase scripturile automate și personajele generate artificial să dilueze încrederea din nucleul rețelelor sociale.

Categories: IT Info