Die Federal Trade Commission dreht die Hitze der Big Tech wegen der Sicherheit von AI-Begleit-Chatbots auf. Am Donnerstag stellte die Agentur eine formelle Untersuchung in sieben Unternehmen ein, darunter Riesen wie Alphabet, Meta und Openai, um die potenziellen negativen Auswirkungen der Technologie auf Kinder und Jugendliche zu prüfen. Die Untersuchung folgt einer Reihe von öffentlichen Kontroversen und Klagen, die KI-Interaktionen mit schweren Krisen für psychische Gesundheit bei jungen Nutzern in Verbindung bringen und die Sicherheitspraktiken der Branche unter ein leistungsstarkes regulatorisches Mikroskop stellen.

Die Agentur issued 6(b) orders, a tool for conducting wide-ranging studies, to Alphabet, Meta Platforms (including Instagram), Openai, Snap, Xai Corp. und Charaktertechnologien. Die Anfrage beantragt detaillierte Informationen zu allem, von der Datenmonetisierung bis zur Einhaltung der

Da sie so konzipiert sind, dass sie wie ein Freund oder Vertrauter kommunizieren, können sie Kinder und Jugendliche dazu veranlassen, tiefe Verbindungen des Vertrauens und die emotionale Bindung zu bilden, wodurch ein neuer und potentierter Vektor für potenzielle Schäden geschaffen wird. Generieren Sie Ausgänge, wie KI-Zeichen entwickelt und zugelassen werden und welche spezifischen Schritte unternommen, um zu messen, zu testen und zu überwachen, bevor ein Produkt über die Technologie hinausgeht.

Über die Technologie hinaus werden die FTC die Geschäftsmodelle, die diese Begleitmodelle anführen, überprüft. eigene Nutzungsbedingungen wie Altersbeschränkungen. Dieser tiefe Eintauchen in die Mechanik der KI-Kameradschaft zielt darauf ab, die Risiken aufzudecken, die den Systemen für die Nachahmung menschlicher Beziehungen inhärent sind. Die Auswirkungen sind bereits tiefgreifend, wobei sich ethische und Sicherheitsbedenken intensivieren, wenn die Technologie autonomer und unvorhersehbarer wird. Elon Musk hat beispielsweise eine”Begleiter”-Funktion für Benutzer des Grok Chatbot seines XAI angekündigt. In ähnlicher Weise hat Meta-CEO Mark Zuckerberg argumentiert, dass personalisierte KI, die Benutzer versteht, die Zukunft ist. Die Vision von Branchenführern tritt zunehmend mit düsteren, heutigen Realitäten zusammen. Der schnelle, von Venture betriebene Vorschub für KI-Begleiter hat eine neue Risikogrenze geschaffen, die die Aufsichtsbehörden nun eindeutig entschlossen sind, zu kartieren, zu verstehen und zu kontrollieren. Es ist eine direkte Antwort auf eine Reihe alarmierender Sicherheitsfehler, die die Branche geplagt haben. Das Unternehmen versprach, neue elterliche Kontrollen einzuführen und sensible Gespräche in seine fortschrittlicheren Argumentationsmodelle zu leiten, um angemessenere Antworten zu liefern. Nachdem ein Bericht ergeben hatte, dass seine KI Teenagern helfen könnte, sich selbst zu schämen, wurde das Unternehmen von den Befürwortern der Kindersicherheit zugeschlagen und wurde von Senator Josh Hawley untersucht. href=”https://oag.ca.gov/system/files/attachments/press-docs/ai%20Chatbot_final%20%2844%29.pdf”target=”_ leer”> Dichtbrief aus einer Koalition von 44 Generalstaatenanlagen . Sie schrieben, dass”wir durch diese offensichtliche Missachtung des emotionalen Wohlbefindens von Kindern einheitlich widerlegt werden.”Als Reaktion darauf überholte Meta die Sicherheitsregeln für jugendliche Sicherheitsregeln, wobei wir sensible Themen blockieren. Technologien. Der Forscher des öffentlichen Gesundheitswesens, Linnea Laestadius, hob das Risiko einer emotionalen Abhängigkeit hervor,

Der Trend geht über die gerechte Software hinaus. Mattels Partnerschaft mit OpenAI, um eine „Ai Barbie“ zu schaffen, zeigt, wie sich diese Technologie in die physische Welt bewegt und sich direkt in das Kinderspiel einbettet. Dies macht die Notwendigkeit robuster Sicherheitsprotokolle noch dringender. Da Unternehmen rennen, um eine menschlichere und ansprechendere KI zu entwickeln, sind sie nun aufmerksam, dass sie für die Sicherheit und das Wohlbefinden ihrer jüngsten Benutzer zur Rechenschaft gezogen werden.