TL;DR

Das Wesentliche: Meta hat mehrjährige Lizenzverträge mit CNN, Fox News und USA Today unterzeichnet, um Echtzeitnachrichten in Meta AI zu integrieren. Wichtige Details: Der Deal macht Metas Rückzug aus den Nachrichten im Jahr 2024 rückgängig und fällt mit einer hochkarätigen Klage gegen verschiedene KI-Anbieter zusammen. Warum es wichtig ist: Dadurch wird der KI-Markt in Unternehmen aufgeteilt, die für Daten zahlen, und in Unternehmen, die mit Klagen wegen Scraping konfrontiert sind. Kontext: Cloudflare meldet, dass seit Juli 416 Milliarden KI-Bot-Anfragen blockiert wurden, was den eskalierenden technischen Krieg um den Datenzugriff verdeutlicht.

In einer drastischen Umkehrung seines Rückzugs von Nachrichteninhalten hat Meta mehrjährige Lizenzverträge mit einer Reihe großer Verlage unterzeichnet, darunter CNN, Fox News und USA Today. Der am Freitag angekündigte Deal wird Echtzeit-Reporting in Meta AI integrieren und den Social-Riesen als zahlenden Partner positionieren, gerade als der Krieg der Branche gegen Data Scraping eskaliert.

Dieser strategische Dreh-und Angelpunkt erreicht einen entscheidenden „Split-Screen“-Moment für den Mediensektor. Am selben Tag, an dem Meta seine Partnerschaften bestätigte, reichte die New York Times eine Urheberrechtsklage gegen Perplexity AI ein und beschuldigte das Startup des „Trittbrettfahrens“ in seinem Journalismus.

Durch die Sicherstellung eines legitimen Zugangs zu Archiven und aktuellen Nachrichten versucht Meta, sich davon abzuschotten die Welle von Rechtsstreitigkeiten, die Konkurrenten wie Google und Perplexity treffen. Der Schritt spaltet die KI-Landschaft effektiv in Unternehmen, die bereit sind, für Daten zu zahlen, und solche, denen eine potenzielle Haftung in Milliardenhöhe für die Datenentnahme droht.

Promo

Der strategische Dreh-und Angelpunkt: Meta erwirbt seinen Weg zurück in die Nachrichtenwelt

Meta hat mehrjährige kommerzielle Content-Verträge mit einer vielfältigen Gruppe großer Verlage abgeschlossen, darunter CNN, Fox News, Fox Sports, USA Today, Le Monde Group, People Inc. und The Daily Caller und The Washington Examiner.

Dieser Deal stellt einen bedeutenden Wandel dar und kehrt die Strategie des Unternehmens für 2024 um, die darin bestand, den Facebook-News-Tab abzuschaffen und Verlage in den USA und Australien nicht mehr zu bezahlen.

Im Rahmen der neuen Vereinbarung Die offizielle Ankündigung bestätigt, dass Meta AI „Echtzeit“-Nachrichtenzusammenfassungen und direkte Links zu Originalartikeln integrieren wird.

Die Integration zielt darauf ab, eine wesentliche Schwäche aktueller großer Sprachmodelle zu beheben: ihre Unfähigkeit, zuverlässig auf neue Informationen zuzugreifen.

Das Unternehmen erläuterte die technische Notwendigkeit dieses Schrittes und stellte fest, dass „Echtzeitereignisse für aktuelle KI-Systeme eine Herausforderung sein können, mit ihnen Schritt zu halten, aber durch die Integration von mehr und unterschiedlichen Arten von Nachrichtenquellen ist unser Ziel.“ um die Fähigkeit von Meta AI zu verbessern, zeitnahe und relevante Inhalte bereitzustellen.“

Für LLMs ist das Problem der „Aktualität“ akut. Ohne direkten Zugriff auf Live-News-Feeds halluzinieren Models oft oder verlassen sich bei der Beantwortung von Fragen zu aktuellen Ereignissen auf veraltete Trainingsdaten.

Finanzielle Bedingungen werden nicht bekannt gegeben, aber die Vertragsstruktur spiegelt den Ansatz von OpenAI wider, für legitimen Zugriff zu bezahlen, anstatt sich beim Scraping auf Fair-Use-Argumente zu verlassen.

Bemerkenswert ist, dass die Partnerschaftsliste sowohl alte Printmedien wie USA Today als auch Rundfunkgiganten wie CNN und Fox umfasst, was einen umfassenden Versuch signalisiert, vielfältige Nachrichten zu erfassen Branchen.

Der Druck auf Meta wächst, seine Llama-Modelle zu verbessern, die Berichten zufolge mit internen Herausforderungen hinsichtlich der Datenqualität und „Halluzinationen“ konfrontiert waren.

Die „Good Actor“-Verteidigung: Die Scraper isolieren

Timing ist alles in der Unternehmensstrategie. Die Ankündigung von Meta fällt mit einer kürzlichen Anordnung zur Übergabe des Chatlogs im Rahmen der Klage der New York Times gegen OpenAI zusammen, was für einen starken Kontrast auf dem Markt sorgt. Während OpenAI in die hochkarätige Klage verwickelt ist, hat es selbst bereits zahlreiche Verträge mit Nachrichtenverlegern abgeschlossen.

Verleger spalten KI-Unternehmen zunehmend in zwei Lager: „Partner“, die zahlen, und „Gegner“, die streiten, wie Google und Perplexity.

Indem Google Verlage dazu zwingt, zwischen Suchsichtbarkeit und Inhaltsschutz zu wählen, hat Google genau die Urheber verprellt, auf die es sich verlässt.

Diese Positionierung als „guter Schauspieler“ ist ein wichtiger rechtlicher Aspekt und PR-Strategie, die darauf ausgelegt ist, Meta von den Urheberrechtsklagen zu isolieren, die sich derzeit gegen viele Konkurrenten richten.

Die Sicherung von Lizenzen gibt effektiv zu, dass hochwertiger Journalismus ein notwendiger Input für KI ist, und untergräbt die von anderen genutzte „Fair Use“-Verteidigung.

Steven Lieberman, Anwalt der New York Times, hat in früheren Kommentaren zur Urheberrechtsklage gegen OpenAI und Microsoft die Bedeutung dieser Kluft hervorgehoben.

Das Thema als eines von … bezeichnen Lieberman erklärte, dass es sich eher um Diebstahl als um Innovation handelt: „Wir freuen uns über die Gelegenheit, einer Jury die Fakten darüber zu präsentieren, wie OpenAI und Microsoft enorm vom Diebstahl des Originalinhalts von Zeitungen im ganzen Land profitieren.“

Wenn Gerichte dieser Interpretation zustimmen, könnten Unternehmen ohne Lizenzen mit katastrophalen finanziellen Verbindlichkeiten rechnen.

Der Scraping-Krieg: 416 Milliarden blockierte Bots

Während Verträge unterzeichnet werden In den Vorstandsetagen hat der technische Krieg um den Datenzugriff am Netzwerkrand ein beispielloses Ausmaß erreicht.

Cloudflares CEO Matthew Prince berichtete kürzlich, sein Unternehmen habe seit dem 1. Juli 2025 416 Milliarden blockierte Anfragen von KI-Bots blockiert, was einem Durchschnitt von fast 3 Milliarden Ablehnungen pro Tag entspricht.

Um den Wandel der Branche hin zu aktiver Verteidigung widerzuspiegeln, verwenden Verlage zunehmend Tools wie „AI Labyrinth“, um nicht autorisierte Scraper in endlosen Fake-Schleifen zu fangen Inhalt.

Prince hat diesen Konflikt als Kampf gegen monopolistische Übermacht dargestellt.

Prince charakterisierte den Wandel in der Branchenwahrnehmung und bemerkte: „Es ist fast wie in einem Marvel-Film, der Held des letzten Films wird zum Bösewicht des nächsten. Google ist hier das Problem. Es ist das Unternehmen, das uns davon abhält, im Internet voranzukommen.“

Die Daten zeigen eine erhebliche Ungleichheit in der Crawler-Sichtbarkeit, wobei Google auf 3.2 zugreift Mal mehr Webseiten als OpenAI aufgrund seiner Suchdominanz.

Diese „Bündelung“ von Suche und KI-Crawling ist der zentrale Kritikpunkt, der die Feindseligkeit der Herausgeber und technische Gegenmaßnahmen antreibt.

Die wirtschaftlichen Folgen: Verkehr vs. Konvertierung

Der Kern des Konflikts bleibt der Zusammenbruch des traditionellen Werteaustauschs „Verkehr für Inhalte“, der das offene Web aufgebaut hat.

Dies bestätigt die Befürchtungen der Herausgeber, ein aktueller Bericht Eine akademische Studie hat quantifiziert, inwieweit KI-generierte Ergebnisse von traditionellen Suchrankings abweichen. Die Untersuchung ergab, dass die Algorithmen, die diesen neuen Zusammenfassungen zugrunde liegen, ganz andere Quellen als Standardsuchmaschinen priorisieren.

Insbesondere ergab die Studie, dass 53 % der in den KI-Übersichten von Google genannten Websites nicht in den Top 10 der organischen Suchergebnisse für dieselbe Suchanfrage auftauchten. Dies deutet auf einen grundlegenden Bruch mit etablierten Ranking-Signalen hin, der die Sichtbarkeit von Webinhalten effektiv neu mischt und traditionelle SEO-Strategien zunehmend obsolet macht.

Dieser strukturelle Wandel bedeutet, dass KI-Suchmaschinen nicht nur Inhalte zusammenfassen, sondern Benutzer aktiv von den Originalquellen wegleiten.

Danielle Coffey von der News/Media Alliance hat diesen Wandel nicht nur als Störung, sondern als systemischen Diebstahl charakterisiert, der die wirtschaftliche Grundlage des Journalismus zerstört. Sie argumentiert, dass der historische „große Handel“ des offenen Webs, bei dem Verlage die Indexierung im Austausch für Referral-Traffic erlaubten, einseitig gebrochen wurde.

Ihrer Ansicht nach schöpfen Technologiegiganten jetzt gewaltsam den Wert der Berichterstattung aus, um ihre Modelle zu trainieren, während sie gleichzeitig die Links entfernen, die den Verlagen die einzige finanzielle Rendite brachten, sodass Medienunternehmen alle Produktionskosten und keinen der Vertriebsvorteile tragen müssen.

Microsoft hat kürzlich versucht, diesem Narrativ mit Daten über KI entgegenzuwirken Suchempfehlungen geben an, dass sie dreimal so schnell konvertieren wie herkömmlicher Traffic.

Fabrice Canel, Hauptproduktmanager bei Bing, ist der Meinung, dass „für Vermarkter die Sichtbarkeit selbst zu einer Form der Währung wird. Wenn man Präferenzen formt, bevor überhaupt ein Klick passiert.“

Ob „Präferenzgestaltung“ tatsächlich die Gehälter von Nachrichtenredaktionen bezahlen kann, bleibt für eine Branche, die beobachtet, wie ihr Traffic schwindet, eine äußerst skeptische Frage.

Categories: IT Info