Der Technikexperte und IT-Kolumnist Mark Pesce hat einen großen Fehler identifiziert, der eine Vielzahl großer Unternehmen betrifft Sprachmodelle (LLMs), einschließlich derjenigen, die in beliebten KI-Chatbots wie ChatGPT, Microsoft Copilot und Google Gemini verwendet werden. Der Fehler, der durch eine scheinbar einfache Eingabeaufforderung ausgelöst wird, führt dazu, dass die Modelle inkohärente und endlose Ausgaben erzeugen, was Bedenken hinsichtlich der Stabilität und Zuverlässigkeit dieser KI-Systeme aufkommen lässt.

Unsinnige und kontinuierliche Ausgabe

Wie Pesce in seinem Artikel für The Register schreibt, wurde das Problem entdeckt als er versuchte, eine Eingabeaufforderung für eine KI-basierter Klassifikator. Der Klassifikator sollte einem Anwalt für geistiges Eigentum dabei helfen, Aufgaben zu automatisieren, die subjektive Beurteilungen erforderten. Beim Test auf Microsoft Copilot Pro, das das GPT-4-Modell von OpenAI verwendet, führte die Eingabeaufforderung dazu, dass der Chatbot unsinnige und kontinuierliche Ausgaben generierte. Ein ähnliches Verhalten wurde bei anderen KI-Modellen beobachtet, darunter Mixtral und mehreren anderen, mit Ausnahme von Claude 3 Sonnet von Anthropic. Pesce schreibt:

„Ich machte mich daran, eine Eingabeaufforderung für diesen Klassifikator zu schreiben, beginnend mit etwas sehr Einfachem – nicht viel anders als eine Eingabeaufforderung, die ich in jeden Chatbot einspeisen würde. Um es zu testen, bevor ich anfing, teure API-Aufrufe zu nutzen, habe ich es in Microsoft Copilot Pro eingefügt. Unter dem Microsoft-Branding basiert Copilot Pro auf dem erstklassigen Modell von OpenAI, GPT-4. Geben Sie die Eingabeaufforderung ein und drücken Sie die Eingabetaste.
 
Der Chatbot begann gut – für die ersten paar Wörter seiner Antwort. Dann verfiel es in einen geplapperten Wahnsinn.“ 

Reaktion und Herausforderungen der Branche

Pesce meldete das Problem verschiedenen KI-Dienstleistern, darunter Microsoft und Elon Musks xAI, die hinter den Grok-KI-Produkten stehen, und bestätigte die Replikation von Der Fehler deutete auf mehrere Modelle hin und deutete eher auf ein grundlegendes Problem als auf einen isolierten Fehler hin. Die Reaktion anderer Unternehmen war jedoch weniger ermutigend Einige Unternehmen hatten keine direkten Kontaktinformationen, um solche kritischen Probleme zu melden, was auf eine erhebliche Lücke in ihren Kundensupport-und Sicherheitsprozessen hinweist.

Auswirkungen auf die KI-Entwicklung

Die Entdeckung unterstreicht die potenziellen Risiken, die mit der schnellen Einführung von KI-Technologien ohne robuste Unterstützungs-und Feedbackmechanismen verbunden sind. Das Fehlen eines klaren Kanals für die Meldung und Behebung von Fehlern in diesen Systemen stellt eine Bedrohung für deren Zuverlässigkeit und Sicherheit dar. Branchenexperten betonen die Notwendigkeit, dass KI-Unternehmen effiziente Prozesse für den Umgang mit Kundenfeedback und die zeitnahe Lösung von Problemen etablieren. Bis diese Maßnahmen umgesetzt sind, bleibt die Sicherheit und Zuverlässigkeit KI-gesteuerter Anwendungen fraglich.

Pesces Erfahrung weist auf ein umfassenderes Problem innerhalb der KI-Branche hin: die Notwendigkeit strengerer Tests und einer besseren Kommunikation zwischen Entwicklern und Benutzer. Da KI weiterhin in verschiedene Aspekte des täglichen Lebens und der Wirtschaft integriert wird, ist es von größter Bedeutung, sicherzustellen, dass diese Systeme sowohl effektiv als auch sicher sind.

Categories: IT Info