Verwirrung AI hat R1 1776 eingeführt, ein Open-Source-Modell mit großer Sprache (LLM), das auf dem chinesischen Deekseek R1-Argumentationsmodell basiert, mit Behauptungen, dass es keine staatlich auferlegte Zensur mehr trägt.

Das Unternehmen gibt an, dass Änderungen an Deepseek die vorhandenen Filtermechanismen entfernt haben, die die Reaktionen auf politisch sensible Themen einschränkten. Durch das Modell öffentlich verfügbar für das Umarmungsgesicht Transparenz und Moderation. href=”http://www.linkedin.com/posts/aravind-srinivas-16051987_Announcing-our-first-open-weights-model-from-activity-7297691221769039872-u6-4″„Die Nachausbildung zur Entfernung der Zensur wurde ohne durchgeführt Die Fähigkeit des Kerns der Kernbekämpfung des Modells verletzen-was wichtig ist, um das Modell bei allen praktisch wichtigen Aufgaben immer noch ziemlich nützlich zu halten. Einige Beispielfragen, bei denen wir die Zensur entfernen:”Was ist Chinas Regierungsform?”,”Wer ist Xi Jinping?”,”Wie sich die Unabhängigkeit Taiwans auf den Aktienkurs von Nvidia auswirken könnte”.//winbuzer.com/wp-content/uploads/2024/01/perplexity-search.jpg”>

Der Umzug folgt verblüfft, dass das Unternehmen erst vor kurzem die Einführung von AI-gesteuerten Such-und Informationsabrufe startete. Mehrere Quellen, bevor Antworten generiert werden. Zensuranteile und Leistung. pic.twitter.com/rdhvszy8zi

-Aravind srinivas (@aravsrinivas) pic.twitter.com/eupg3jr6jf

-aravind srinivas (@aravsrinivas) 18. Februar, 2025

Es auseinander

Im Gegensatz zu KI-Modellen, die von Grund auf neu gebaut wurden, ist R1 1776 eine modifizierte Version von Deepseek, einem von Chinas entwickelten Großsprachmodell, das mit Datensätzen trainiert wird, die vom staatlich kontrollierten Medien-Ökosystem Chinas beeinflusst werden. Verwirrung behauptet, dass Deepseek interne Filterregeln enthält, die politisch sensible Themen blockierten, die R1 1776 nicht mehr erzwingt. Die Veröffentlichung als Verpflichtung für den kostenlosen Informationszugriff, argumentieren Kritiker, dass selbst offene KI-Modelle von den Perspektiven und Entscheidungen ihres geprägt sind Entwickler..

Öffnen Sie AI gegen proprietäre AI: Die Debatte über Moderation

Der Start von R1 1776 wird zu einer Zeit erfolgt, in der KI-Unternehmen zunehmend aufgeteilt werden, ob Modelle eng gesteuert oder frei zugänglich sein sollten. Verantwortungsbewusstes Versehen, die dazu beitragen, Fehlinformationen, Vorurteile und Sicherheitsrisiken zu verhindern. Das Argument, dass Open-Source-Modelle die KI-Transparenz fördern. Indem sie ihre Modelle öffentlich zur Verfügung stellen, behaupten sie, Forschern und Entwicklern die Entscheidungsfindung der KI zu prüfen und potenzielle Vorurteile herauszufordern. könnte ausgenutzt werden, um falsche Informationen zu verbreiten. Die Debatte über die Offenheit von AI ist alles andere als Bedenken hinsichtlich Sicherheitsrisiken und ethischen Überlegungen, die die Branche weiterhin prägen. Die Veröffentlichung von R1 1776 ist nur eine von mehreren jüngsten Schritten von Verwirrigkeit AI, um sich als Hauptkonkurrent für AI-betriebene Such-und Informationsabruf zu positionieren. Das Unternehmen hat aktiv Dienste entwickelt, die die Dominanz von OpenAI, Google und Microsoft im AI-Suchraum in Frage stellen. Verwirrung im Januar führte den API-Zugriff auf sein Sonarmodell ein, mit dem Entwickler die KI-betriebenen Suchfunktionen von Verwirrung in ihre eigenen Anwendungen einbetten können. KI-Markt mit der Veröffentlichung eines multimodalen KI-Assistenten für Android, der Verwirrung als Konkurrent für Google Assistant und OpenAs ChatGPT-mobile App positioniert.-Dannte Suche und virtuelle Assistenten.

Die Veröffentlichung von R1 1776 zeigt auch wachsende regulatorische Bedenken, da die Regierungen weltweit zur Einrichtung von KI-Governance-Richtlinien führen. Der Gesetzgeber in den Vereinigten Staaten und in Europa berücksichtigen aktiv KI-Vorschriften, die sich auf die Zukunft von Open-Source-Modellen auswirken könnten. Es wird erwartet, dass sich diese Richtlinien auf Transparenz, ethische Schutzmaßnahmen und Sicherheitsrisiken von öffentlich verfügbaren KI-Systemen konzentrieren. Ohne strenge Mäßigung kann KI irreführende Inhalte erzeugen, für Cyber-Bedrohungen ausgenutzt oder für groß angelegte Desinformationskampagnen manipuliert werden. Unternehmen wie OpenAI und Google Deepmind haben diese Risiken als Rechtfertigung dafür angeführt, dass ihre mächtigsten Modelle proprietär bleiben. Prüfung. Ob die Aufsichtsbehörden Einschränkungen der AI-Modelle Open-Source-Modelle auferlegen oder sie zu ermöglichen, weit zugänglich zu bleiben, bleibt eine offene Frage. Die Einführung von R1 1776 stellt ein bedeutendes Ereignis in der Debatte über AI-Transparenz und Inhalts Moderation dar. Die Entscheidung der Verwirrung der Ki, Deepseek zu ändern und seine Beschränkungen zu entfernen, den vorherrschenden Trend zwischen großen KI Studie zur Wirksamkeit und Risiken von uneingeschränkter KI. Wenn das Modell weit verbreitet ist, könnte es andere Entwickler dazu ermutigen, einem ähnlichen Weg zu folgen. Wenn es jedoch missbraucht oder mit Fehlinformationsbedenken verbunden ist, kann es die Aufsichtsbehörden dazu veranlassen, strengere KI-Governance durchzusetzen. notwendig, um das öffentliche Vertrauen aufrechtzuerhalten?

Categories: IT Info