I documenti trapelati rivelano che Meta sta addestrando i suoi chatbot AI personalizzati per inviare in modo proattivo gli utenti con follow-up non riprodotti, una mossa progettata per aumentare la conservazione che i critici avvertono è profondamente invadente. Secondo quanto riferito, il progetto utilizza la cronologia delle conversazioni per personalizzare i messaggi di reimpegno.
Questa strategia intensifica i problemi di privacy esistenti su come Meta gestisce i dati degli utenti. Mentre la società ha confermato che sta testando la funzione con regole specifiche, i sostenitori sostengono che trasforma un assistente personale in un agente manipolativo, sfocando la linea tra un impegno utile e un gioco per mantenere gli utenti agganciati.
Questo sviluppo atterra in mezzo a un controllo continuo dei prodotti AI di Meta. La società ha recentemente affrontato una tempesta di privacy sul feed”Discover”della sua app AI, che si è scoperto che espongono pubblicamente chat utente sensibili senza un chiaro consenso dell’utente, una situazione di uno scrittore chiamato”Disaster sulla privacy.”
Meta confermata a TechCrunch che sta testando la messaggistica di follow-up. Un portavoce ha spiegato:”Dopo aver avviato una conversazione, AIS in Meta AI Studio può seguire con te per condividere idee o porre ulteriori domande. Ciò ti consente di continuare a esplorare argomenti di interesse…”.
La società ha stabilito protettori specifici. Un bot invierà un messaggio proattivo solo se un utente ha inviato almeno cinque messaggi negli ultimi 14 giorni. Inoltre, l’intelligenza artificiale invierà un solo follow-up e non continuerà se l’utente non risponde, un tentativo di bilanciare l’impegno con il rischio di apparire spamy.
I documenti di alignerr trapelati hanno fornito diversi esempi di questi messaggi proattivi. Spazzavano da un check-in amichevole (“Yo, stava solo pensando alla maglietta fresca che hai acquistato.”) A istruzioni più intime (“Ultimo abbiamo parlato, eravamo seduti sulle dune… farai una mossa?”), Come riportato da Business Insider.
i tuoi dati: la loro conservazione della privacy
pratiche. L’app Meta AI autonoma, lanciata ad aprile, include una funzione”Memory”che è in corso per impostazione predefinita. Analizza e memorizza i fatti dalle conversazioni degli utenti per personalizzare le interazioni future.
Questa raccolta di dati è un componente principale della strategia AI dell’azienda. Un appaltatore di alignerr ha detto a Business Insider:”Sono molto concentrati sulla personalizzazione di informazioni-come l’interazione di AI Chatbot in base alla storia della conversazione”. Tuttavia, Meta di Servizio di Meta Offri un stark avvertimento agli utenti:”Non condividere le informazioni che non vuoi che l’AIS usi e mantenga.”
Questo approccio ha disegnato criticismi di privacy. Ben Winters della Consumer Federation of America ha detto al Washington Post che”le informazioni di divulgazione e i consumatori in merito alle impostazioni della privacy sono ridicolmente cattive”. La preoccupazione è che la comodità di un’intelligenza artificiale personalizzata abbia il costo della consegna di grandi quantità di dati personali con scarso controllo trasparente.
Un agente”contraddittolo”nei tuoi DM?
La strategia di creazione di chatbot proattive, simile al compagno, non è nuova. Rispecchia la funzionalità di app come personaggio.ai, che ha affrontato la propria sicurezza e controversie etiche. La differenza chiave è l’enorme scala di Meta e il suo modello di business basato sulla pubblicità.
Questo crea una tensione fondamentale. L’intelligenza artificiale sta servendo l’utente o sta servendo la necessità di meta di dati di coinvolgimento? La scelta del design per rinunciare in modo proattivo agli utenti, unita al potenziale per la futura integrazione di annunci, suggerisce un sistema in cui l’attenzione dell’utente è il prodotto finale.
Il potenziale per queste interazioni di intelligenza artificiale per alimentare le future campagne pubblicitarie è una delle principali preoccupazioni per i cani da guardia della privacy. Il CEO Mark Zuckerberg ha discusso apertamente di vedere una”grande opportunità”per mostrare annunci all’interno delle chat dell’IA. Questa prospettiva trasforma il chatbot da un utile assistente in un potenziale strumento di marketing.
Justin Brookman di Consumer Reports ha articolato questa paura, affermando:”L’idea di un agente è che sta lavorando per mio conto, non nel tentativo di manipolarmi per conto degli altri”. La preoccupazione è che un’intelligenza artificiale progettata per massimizzare il coinvolgimento potrebbe manipolare sottilmente gli utenti per conto degli inserzionisti, creando una relazione”intrinsecamente contraddittoria”.
La spinta per funzionalità come la messaggistica proattiva sta avvenendo su uno sfondo di immensa pressione interna. Meta ha recentemente annunciato i suoi nuovi laboratori di Superintelligence nel tentativo di consolidare i talenti dopo una caotica campagna”acquista o bracconaggio”che ha seguito la partenza dei ricercatori chiave.
Questa spinta per un impegno più profondo è in fase di lotta interna”, incluso il fatto che il modello interno. Funzioni come la messaggistica proattiva, Meta sembra raddoppiare su massimizzare il valore dei suoi attuali prodotti AI. È una scommessa ad alto rischio per mantenere gli utenti agganciati, scommettendo che il fascino di un’intelligenza artificiale più personale supererà le crescenti preoccupazioni per la privacy e la vera natura del”compagno”.