TL;DR
Il succo: Meta ha firmato accordi di licenza pluriennali con CNN, Fox News e USA Today per integrare notizie in tempo reale in Meta AI. Dettagli chiave: l’accordo inverte il ritiro di Meta dalle notizie nel 2024 e coincide con una causa di alto profilo contro vari fornitori di intelligenza artificiale. Perché è importante: questo divide il mercato dell’intelligenza artificiale tra le aziende che pagano per i dati e quelle che affrontano azioni legali per lo scraping. Contesto: Cloudflare segnala di aver bloccato 416 miliardi di richieste di bot AI da luglio, evidenziando la crescente guerra tecnica per l’accesso ai dati.
In una netta inversione di rotta rispetto al suo ritiro dai contenuti giornalistici, Meta ha firmato accordi di licenza pluriennali con una serie di importanti editori, tra cui CNN, Fox News e USA Today. L’accordo, annunciato venerdì, integrerà il reporting in tempo reale in Meta AI, posizionando il gigante dei social come un partner pagante proprio mentre la guerra del settore contro lo scraping dei dati si intensifica.
Questo perno strategico arriva in un momento decisivo di”schermo diviso”per il settore dei media. Lo stesso giorno in cui Meta ha confermato la sua partnership, il New York Times ha intentato una causa sul copyright contro Perplexity AI, accusando la startup di”freeriding”sul suo giornalismo.
Garantindosi un accesso legittimo agli archivi e alle ultime notizie, Meta tenta di isolarsi dall’ondata di contenziosi che colpiscono rivali come Google e Perplexity. La mossa divide di fatto il panorama dell’intelligenza artificiale tra le aziende disposte a pagare per i dati e quelle che si trovano ad affrontare miliardi di potenziali responsabilità per averli acquisiti.
Promo
Il perno strategico: Meta ritorna nelle notizie
Meta si è assicurata accordi pluriennali di contenuti commerciali con un gruppo eterogeneo di importanti editori, tra cui CNN, Fox News, Fox Sports, USA Today, Le Monde Group, People Inc., The Daily Caller, e The Washington Examiner.
Segnando un cambiamento significativo, questo accordo inverte la strategia 2024 dell’azienda, che l’ha vista eliminare Facebook News Tab e smettere di pagare gli editori negli Stati Uniti e in Australia.
In base al nuovo accordo, l’annuncio ufficiale conferma che Meta AI integrerà riassunti di notizie”in tempo reale”e collegamenti diretti ad articoli originali.
L’integrazione mira a risolvere una debolezza significativa negli attuali modelli linguistici di grandi dimensioni: la loro incapacità di accedere in modo affidabile a informazioni nuove.
Spiegando la necessità tecnica di questa mossa, la società ha osservato che”gli eventi in tempo reale possono essere difficili da tenere al passo con gli attuali sistemi di intelligenza artificiale, ma integrando più e diversi tipi di fonti di notizie, il nostro obiettivo è migliorare la capacità di Meta AI di fornire contenuti tempestivi e pertinenti.”
Per i LLM, il problema della”freschezza”è acuto. Senza accesso diretto ai feed di notizie in tempo reale, i modelli spesso hanno allucinazioni o fanno affidamento su dati di addestramento obsoleti quando rispondono a domande sugli eventi attuali.
I termini finanziari non vengono divulgati, ma la struttura dell’accordo rispecchia l’approccio di OpenAI di pagare per un accesso legittimo piuttosto che fare affidamento su argomenti di fair use per lo scraping.
In particolare, l’elenco delle partnership include sia la carta stampata legacy come USA Today che giganti del broadcast come CNN e Fox, segnalando un ampio tentativo di catturare notizie diversificate verticali.
Meta sta aumentando la pressione affinché migliori i suoi modelli Llama, che secondo quanto riferito hanno dovuto affrontare sfide interne relative alla qualità dei dati e alle”allucinazioni”.
La difesa del”buon attore”: isolare gli scraper
Il tempismo è tutto nella strategia aziendale. L’annuncio di Meta coincide con un recente ordine di consegna del chatlog nella causa del New York Times contro OpenAI, creando un netto contrasto nel mercato. Pur essendo coinvolta in una causa di alto profilo, la stessa OpenAI ha già stretto molti accordi con gli editori di notizie.
Gli editori stanno sempre più dividendo le società di intelligenza artificiale in due campi:”partner”che pagano e”avversari”che racimolano, come Google e Perplexity.
Costringendo gli editori a scegliere tra visibilità della ricerca e protezione dei contenuti, Google ha alienato gli stessi creatori su cui fa affidamento.
Questo”bravo attore”il posizionamento è una strategia legale e di pubbliche relazioni chiave, progettata per isolare Meta dalle cause legali sul copyright che attualmente prendono di mira molti rivali.
Garantire le licenze ammette di fatto che il giornalismo di alta qualità è un input necessario per l’intelligenza artificiale, minando la difesa del”fair use”utilizzata da altri.
Steven Lieberman, avvocato del New York Times, ha evidenziato la posta in gioco di questa divisione nei commenti precedenti sulla causa sul copyright contro OpenAI e Microsoft.
Inquadrare il come una questione di furto piuttosto che di innovazione, Lieberman ha affermato che”apprezziamo l’opportunità di presentare a una giuria i fatti su come OpenAI e Microsoft stanno trarre enormi profitti dal furto del contenuto originale dei giornali in tutto il paese.”
Se i tribunali concordano con questa interpretazione, le aziende senza licenze potrebbero affrontare responsabilità finanziarie catastrofiche.
La guerra di demolizione: 416 miliardi di bot bloccati
Mentre vengono firmati accordi sale riunioni, la guerra tecnica per l’accesso ai dati ha raggiunto livelli senza precedenti ai margini della rete.
Il CEO di Cloudflare Matthew Prince ha recentemente riferito che la sua azienda ha bloccato 416 miliardi di richieste bloccate da bot IA dal 1° luglio 2025, con una media di quasi 3 miliardi di rifiuti al giorno.
Riflettendo il passaggio del settore alla difesa attiva, gli editori utilizzano sempre più spesso strumenti come”AI Labyrinth”per intrappolare gli scraper non autorizzati in cicli infiniti di falsi contenuti.
Prince ha inquadrato questo conflitto come una battaglia contro l’espansione monopolistica.
Caratterizzando il cambiamento nella percezione del settore, Prince ha osservato che”è quasi come un film Marvel, l’eroe dell’ultimo film diventa il cattivo di quello successivo. Google è il problema qui. È l’azienda che ci impedisce di andare avanti su Internet.”
I dati rivelano una significativa disparità nella visibilità dei crawler, con Google che accede a 3,2 volte di più. pagine web rispetto a OpenAI a causa della sua posizione dominante nella ricerca.
Questo”raggruppamento”di ricerca e scansione dell’intelligenza artificiale è la lamentela centrale che guida l’ostilità degli editori e le contromisure tecniche.
Le ricadute economiche: traffico contro conversione
Al centro del conflitto rimane il collasso del tradizionale scambio di valore”traffico per contenuti”che ha costruito il web aperto.
Confermando i timori degli editori, un recente Uno studio accademico ha quantificato la misura in cui i risultati generati dall’intelligenza artificiale divergono dalle tradizionali classifiche di ricerca. La ricerca ha rivelato che gli algoritmi alla base di questi nuovi riepiloghi danno priorità a un insieme di fonti molto diverse rispetto ai motori di ricerca standard.
In particolare, lo studio ha rilevato che il 53% dei siti web citati nelle panoramiche AI di Google non sono comparsi nei primi 10 risultati di ricerca organici per la stessa query. Ciò indica una rottura fondamentale rispetto ai segnali di ranking consolidati, rimescolando di fatto la visibilità dei contenuti web e rendendo le strategie SEO tradizionali sempre più obsolete.
Questo cambiamento strutturale significa che i motori di ricerca IA non si limitano a riassumere i contenuti, ma reindirizzano attivamente gli utenti lontano dalle fonti originali.
Danielle Coffey della News/Media Alliance ha caratterizzato questo cambiamento non semplicemente come un cambiamento, ma come un furto sistemico che smantella le basi economiche del giornalismo. Sostiene che lo storico”grande patto”del web aperto, in cui gli editori consentivano l’indicizzazione in cambio di traffico di riferimento, è stato infranto unilateralmente.
A suo avviso, i giganti della tecnologia stanno ora estraendo con la forza il valore del reporting per addestrare i loro modelli, eliminando al contempo i collegamenti che fornivano l’unico ritorno finanziario per gli editori, lasciando alle organizzazioni dei media tutti i costi di produzione e nessuno dei vantaggi di distribuzione.
Microsoft ha recentemente tentato di contrastare questa narrazione con dati sulla ricerca basata sull’intelligenza artificiale. referral che affermano di convertire a un tasso di conversione 3 volte superiore a quello del traffico tradizionale.
Fabrice Canel, Principal Product Manager di Bing, ritiene che”per i professionisti del marketing, la visibilità stessa sta diventando una forma di valuta. Se stai modellando le preferenze prima ancora che avvenga un clic.”
Se il”modellamento delle preferenze”possa effettivamente pagare gli stipendi delle redazioni rimane una proposta profondamente scettica per un settore che vede il suo traffico evaporare.