läckta dokument avslöjar att Meta utbildar sina anpassade AI-chatbots för att proaktivt meddela användare med oöverträffade uppföljningar, ett drag som är utformat för att öka behållningen som kritiker varnar är djupt påträngande. Projektet använder enligt uppgift konversationshistorik för att anpassa meddelanden om återinträde.
Denna strategi eskalerar befintliga integritetsproblem över hur META hanterar användardata. Medan företaget bekräftade att det testar funktionen med specifika regler, hävdar förespråkare att det förvandlar en personlig assistent till en manipulativ agent, oskärpa gränsen mellan användbart engagemang och en pjäs för att hålla användarna anslutna.
Denna utveckling landar bland pågående granskning av META: s AI-produkter. Företaget mötte nyligen en sekretessfirstorm över sitt AI-appens”Discover”-flöde, som visade sig offentligt avslöja känsliga användarchattar utan tydligt användarsamtal, en situation som en författare kallade en”integritetskatastrof.”
initiative, known internally to data labeling firm Alignerr as “Project Omni,”syftar till att”förbättra återintrång och användarhållning”, enligt de läckta riktlinjerna. Funktionen är för bots tillverkade i Metas AI-studioplattform, tillgänglig via Instagram eller sin egen app.
meta bekräftade för TechCrunch att den testar uppföljningsmeddelanden. En talesman förklarade,”När du har initierat en konversation kan AIS i Meta AI-studion följa upp med dig för att dela idéer eller ställa ytterligare frågor. Detta gör att du kan fortsätta utforska ämnen av intresse…”.
Företaget har etablerat specifika skyddsspår. En bot kommer bara att skicka ett proaktivt meddelande om en användare har skickat minst fem meddelanden till det under de senaste 14 dagarna. Dessutom kommer AI endast att skicka en enda uppföljning och kommer inte att fortsätta om användaren inte svarar, ett försök att balansera engagemang med risken att visas spammy.
De läckta Alignerr-dokumenten gav flera exempel på dessa proaktiva meddelanden. De sträckte sig från en vänlig incheckning (“Yo, tänkte bara på den coola tröjan du köpte.”) Till mer intima anvisningar (“Senast vi talade, vi satt på sanddynerna… kommer du att göra ett drag?”), Som rapporterats av Business Insider.
dina data, deras retention: The Privacy Trade
detta nytt är byggt på Meta är byggda på Mete på Mete på Mete On Mete On Mete Of Meta’s Of Meta’s och Conto’s Of Meta’s Of Meta’s och Confacto’s och ContoS’s and ContoS OCH CONTOOS datapraxis. Den fristående Meta AI-appen, som lanserades i april, innehåller en”minne”-funktion som är på som standard. Det analyserar och lagrar fakta från användarsamtal för att anpassa framtida interaktioner.
Denna datainsamling är en kärnkomponent i företagets AI-strategi. En Alignerr-entreprenör sa till Business Insider,”De är mycket fokuserade på att anpassa information-hur AI Chatbot interagerar baserat på konversationshistoria.” Emellertid Metas egna servicevillkor Erbjuder en stark varning till användare:”Delar inte information om att du inte vill att AIS ska använda och behålla.”
Detta tillvägagångssätt har dragit skarp kritik från privatskapen. Ben Winters från Consumer Federation of America berättade för The Washington Post att”avslöjanden och konsumentval kring sekretessinställningar är skrattande dåliga.” Oroet är att bekvämligheten med en personlig AI kommer till kostnaden för att överlämna stora mängder personuppgifter med lite transparent kontroll.
En”motståndare”-agent i din DMS?
Strategin att skapa proaktiva, följeslagare-liknande chatbots är inte ny. Den speglar funktionaliteten hos appar som Character.ai, som har mött sina egna säkerhet och etiska kontroverser. Den viktigaste skillnaden är Metas enorma skala och dess reklambaserade affärsmodell.
Detta skapar en grundläggande spänning. Tjänar AI användaren, eller tjänar den Metas behov av engagemangsdata? Designvalet för att proaktivt åter engagera användare, i kombination med potentialen för framtida annonsintegration, antyder att ett system där användarens uppmärksamhet är den ultimata produkten.
Potentialen för dessa AI-interaktioner för att driva framtida reklamkampanjer är ett stort problem för integritetsvakthundar. VD Mark Zuckerberg har öppet diskuterat att se en”stor möjlighet”att visa annonser inom AI-chattar. Denna prospekt förvandlar chatboten från en användbar assistent till ett potentiellt marknadsföringsverktyg.
Justin Brookman från Consumer Reports formulerade denna rädsla och säger:”Idén om en agent är att det fungerar för min räkning-inte för att försöka manipulera mig för andras räkning.” Oroet är att en AI som är utformad för att maximera engagemanget kan subtilt manipulera användare på uppdrag av annonsörer, att skapa ett”iboende motsats”-förhållande.
Push för funktioner som proaktiv meddelanden sker mot en bakgrund av enormt internt tryck. Meta tillkännagav nyligen sina nya Superintelligence-laboratorier i ett försök att konsolidera talang efter en kaotisk”köp eller poach”-kampanj som följde avgången från viktiga forskare.
Denna drivkraft för djupare engagemang kommer som meta navigerar dessa betydande interna kämpar, inklusive en talang dränering från sina kärnor och utveckling kämpar som postponed dess nästa”Behem. Liksom proaktiv meddelanden verkar Meta fördubblas på att maximera värdet på dess nuvarande AI-produkter. Det är ett spel med höga insatser för att hålla användarna anslutna och satsar på att överklagandet av en mer personlig AI kommer att uppväga de växande oro över integritet och den digitala”följeslagarnas verkliga natur”.