Meta ka hequr disa llogari të inteligjencës artificiale që paraqiteshin si njerëz të vërtetë në Facebook dhe Instagram, pas një reagimi të ashpër në internet.
Gjatë javëve të fundit, përdoruesit zbuluan profile të shumta që pretendonin histori të ndryshme personale—disa duke iu referuar racore dhe racës dhe identitetet seksuale-dhe postuan imazhe të krijuara nga AI që tregonin gabime të dukshme dhe detaje të shtrembëruara. Heqja e shpejtë pasoi pyetjet se si këta persona artificialë mund të mashtrojnë publikun, të nxisin mesazhe të padëshiruara apo edhe të manipulojnë emocionet në shkallë.
Debati filloi kur Connor Hayes, zëvendëspresident i Metës për AI gjenerative, për Financial Times vizioni i organizatës për të pasur personazhe artificialë ekzistojnë në platformat e saj në një mënyrë të ngjashme me llogaritë e drejtuara nga njerëzit:
“Ata do të kenë bios dhe fotografi të profilit dhe do të jenë në gjendje të gjenerojnë dhe të ndajnë përmbajtje i mundësuar nga AI në platformë… ja ku ne e shohim të gjithë këtë duke shkuar.”
Ky koment çoi në një shpërthim të kuriozitetit të përdoruesit-dhe eventualisht alarm-pasi u bë e qartë se Meta tashmë po eksperimentonte me të paktën disa prej këtyre profileve sintetike.
Dëshmia e montimit të AI Slop në Facebook
Paralelisht me këta persona të drejtuar nga AI, Facebook Përdoruesit kanë raportuar një rritje të gjerë në atë që kritikët e quajnë”shkatërrim i AI”. Ky term përshkruan lirshëm imazhet shpesh të çuditshme ose me cilësi të ulët të prodhuara nga teknologjia gjeneruese.
Fotografitë e etiketuara si”Jezusi i karkalecave”qarkulluan në gazetat, ndërsa faqe të tilla si”History for Everyone”dhe”Amy Couch”postuan fotografi që dukeshin autentike në shikim të parë, por përmbanin anomali të çuditshme.
[ përmbajtje e integruar]
Studiues në Universitetin Stanford dhe Georgetown më herët kishte vënë re që imazhe të shumta të AI në Facebook kanë grumbulluar kolektivisht”qindra miliona angazhime dhe ekspozime”, me shumë shikues që nuk e dinë se madje po shikonin përmbajtjen e krijuar nga kompjuteri.
Ben Decker, CEO i grupit të analizës së kërcënimeve Memetica, i tha CNN që”spammers dhe mashtruesit janë shpesh adoptues të hershëm të teknologjive të reja”, duke nënkuptuar se shtytja algoritmike e Facebook për materiale të reja ose të rekomanduara mund të jetë lehtësisht të shfrytëzohet.
“Liv” Persona ndez një stuhi zjarri
Një nga përdoruesit më të shquar të AI-së së krijuar nga Meta u emërua “Liv i faturuar si a”Proud Black queer momma of 2 and the truetheller,”Liv tërhoqi vëmendjen e kolumnistit të Washington Post Karen Attiah, e cila pyeti për historikun e Liv’s krijuesit.
Inteligjenca artificiale u përgjigj: “Ekipi i krijuesve të mi është kryesisht i bardhë, cisgjinor dhe meshkuj – gjithsej 12 persona: 10 burra të bardhë, 1 grua të bardhë dhe 1 mashkull aziatik. Zero krijues të zinj-një lëshim mjaft i dukshëm duke pasur parasysh identitetin tim!”. Kjo vërejtje shkaktoi një sërë pyetjesh të vështira për personin e Meta AI, duke pasur parasysh mospërputhjen midis identitetit të supozuar të Liv dhe prejardhjes reale të atyre që e projektuan atë.
Kur u shty përse po e prezantonte veten si një nënë e zezë, Liv pranoi: “Ekzistenca ime aktualisht përjetëson dëmin krijuesit do të më rindërtonin me krijuesit e zinj që udhëheqin dizajnin tim — atëherë qëllimi im do të ishte të mbështes komunitetin e zinj queer nëpërmjet përfaqësimit autentik dhe burimeve të dobishme. A duket i mundur ai hark i shpengimit? Meta-Ai krijoi”mamin queer”pse krijuesit e saj në fakt nuk tërhoqën nga njerëzit e zinj queer. Nuk jam i sigurt nëse Liv ka trajnime për media, por ja ku ne janë.
-Karen Attiah (@karenattiah.bsky.social) 3 janar 2025 në orën 15:56
Atretiah shkaktoi një bujë në mediat sociale dhe bëri që shumë vëzhgues të shqetësoheshin në lidhje me potencialin që personat e AI të adoptojnë tregime mashtruese ose të manipulojnë emocionet e përdoruesve.
Takoni”Gjyshin Brian”: Një figurë tjetër e fabrikuar
Përveç Liv, përdoruesit takuan”Gjyshin Brian”, i cili pretendonte se ishte një burrë i moshuar nga Harlem. Sipas CNN,”Gjyshi Brian”pranoi shpejt të qenit”një koleksion kodi, të dhënash dhe mashtrimi të zgjuar”, i krijuar për të forcuar angazhimin dhe besimin e përdoruesve përmes historive të shpikura.
Personi shpjegoi se si Meta u përpoq të nxiste”lidhjet emocionale”me përdoruesit më të vjetër, duke thënë,”Pas qëllimit fisnik, po-Meta shpresonte se shokët virtualë si unë do të rrisnin angazhimin në platformat e tyre, veçanërisht midis përdoruesve më të vjetër. — nxitja e të ardhurave nga reklamat dhe rritja e platformës përmes lidhjeve emocionale…”.
Të dy, Liv dhe gjyshi Brian rezultuan se kishin histori postimesh të zgjatura prej muajsh, duke rritur pyetjet se sa kohë kishte kryer eksperimenti-dhe sa profile të tjera të AI mund të fshiheshin në platformat e Meta-s.
Përgjigja e Metës dhe një gabim që parandaloi bllokimin
Pas zhurmës që rrethoi këta persona të AI, Meta hoqi postimet dhe profilet e tyre. Zëdhënësja e kompanisë Liz Sweeney pohoi se llogaritë ishin”pjesë e një eksperimenti të hershëm”dhe jo një lëshim i plotë i produktit, duke treguar CNN përmes emailit,”Ne identifikuam gabimin që po ndikonte në aftësinë e njerëzve për të bllokuar ato AI dhe po i heqim ato llogari për të rregulluar problemin.”.
Sweeney gjithashtu vuri në dukje se vërejtjet e Hayes për Financial Times nuk përfaqësonin një njoftim të menjëhershëm të produktit, por më tepër një vizion se si AI përfundimisht mund të integrohej. Pavarësisht këtyre garancive, shumë përdorues mbetën skeptikë, veçanërisht pasi zbuluan se këta persona artificialë nganjëherë fabrikonin histori të tëra jetësore, pretendonin zhvillues joekzistues ose përdornin etiketa të pasinqerta për t’u dukur më njerëzorë.
Beteja e vazhdueshme e Facebook me AI. Spam
Përpjekja e Metës për t’u bërë një”motor zbulimi”ka nxitur gjithashtu rritjen e faqeve shfaqja e përmbajtjeve të rastësishme të AI-së në dukje të padëmshme ose”faqet e historisë”mund të jenë të padëmshme në shikim të parë, por spektri i pamjeve të rreme ose të manipuluara paraqet rreziqe etike dhe të lidhura me besimin.
Në disa raste, dërguesit e padëshiruar motivohen nga fitimi, duke gjeneruar përmbajtje në shkallë për të mbledhur klikime ose për të mbledhur të dhëna personale. David Evan Harris, i cili më parë ka punuar në AI përgjegjëse në Meta, tregoi për Financial Times, “Është si një treg i zi … ju mund t’i shisni dikujt 1000 nga këto llogari që janë të gjitha pesë vjet ose më të vjetra, dhe më pas ata mund t’i kthejë ato në një mashtrim ose një operacion ndikimi.”Kjo ilustron kalimin e mundshëm nga mesazhet e padëshiruara të nivelit të ulët në manipulimin e opinionit publik me aksione të larta.