A Mark Pesce műszaki szakértő és informatikai rovatvezető egy jelentős hibát azonosított, amely számos nagy nyelvi modellek (LLM), beleértve a népszerű mesterséges intelligencia chatbotokban, például a ChatGPT-ben, a Microsoft Copilotban és a Google Geminiben használtakat. A látszólag egyszerű felszólítás által kiváltott hiba miatt a modellek inkoherens és végtelen kimenetet produkálnak, ami aggályokat vet fel ezen AI-rendszerek stabilitásával és megbízhatóságával kapcsolatban.
Érzéketlen és folyamatos kimenet
Amint Pesce a The Register című cikkében írja, a problémát felfedezték amikor megpróbált promptot létrehozni egy AI-alapú osztályozó. Az osztályozó a szellemi tulajdonjoggal foglalkozó ügyvédet hivatott segíteni a szubjektív megítélést igénylő feladatok automatizálásával. Amikor az OpenAI GPT-4 modelljét használó Microsoft Copilot Pro-n tesztelték, a felszólítás hatására a chatbot értelmetlen és folyamatos kimenetet generált. Hasonló viselkedést figyeltek meg más mesterséges intelligencia modelleknél is, beleértve a Mixtral-t és számos más modellt is, kivéve az Anthropic Claude 3 Sonnetjét. Pesce a következőket írja:
“Elkezdtem írni egy promptot ehhez az osztályozóhoz, valami nagyon egyszerű dologgal kezdve – ami nem nagyon különbözik attól a prompttól, amelyet bármelyik chatbotba betáplálnék. Hogy teszteljem, mielőtt elkezdtem volna drága API-hívásokat fogyasztani, beugrottam a Microsoft Copilot Pro-ba. A Microsoft márkajelzése alatt a Copilot Pro az OpenAI legjobb modelljének, a GPT-4-nek a tetején helyezkedik el. Gépelje be a promptot, és nyomja meg a return gombot.
A chatbot jól indult – a válasz első néhány szava miatt. Aztán zsivajszerű őrületbe süllyedt.”
Iparági válaszok és kihívások
A Pesce jelentett a problémát különböző mesterségesintelligencia-szolgáltatóknak, köztük a Microsoftnak és Elon Musk xAI-nak, akik a Grok AI-termékek mögött állnak A hiba több modellben is alapvető problémát jelez, nem pedig elszigetelt hibát. A Microsoft biztonsági csapata azonban kevésbé biztató volt, mint a biztonsággal kapcsolatos hibát, míg más jelentős mesterségesintelligencia-cégek nem reagáltak. megfelelően vagy egyáltalán nem rendelkeztek közvetlen kapcsolatfelvételi adatokkal az ilyen kritikus problémák bejelentéséhez, ami rávilágít az ügyfélszolgálati és biztonsági folyamataikban fennálló jelentős hiányosságokra.
Az AI fejlesztésére gyakorolt hatás
A felfedezés rávilágít az AI-technológiák robusztus támogatási és visszacsatolási mechanizmusok nélküli gyors elterjedésével kapcsolatos lehetséges kockázatokra. Az ezekben a rendszerekben előforduló hibák bejelentésére és kezelésére szolgáló egyértelmű csatorna hiánya veszélyt jelent azok megbízhatóságára és biztonságára nézve. Iparági szakértők hangsúlyozzák, hogy az AI-cégeknek hatékony folyamatokat kell kialakítaniuk az ügyfelek visszajelzéseinek kezelésére és a problémák azonnali megoldására. Amíg ezek az intézkedések nem lépnek életbe, a mesterséges intelligencia által vezérelt alkalmazások biztonsága és megbízhatósága kérdéses marad.
Pesce tapasztalatai egy tágabb problémára mutatnak rá az AI-iparon belül: a szigorúbb tesztelés és a fejlesztők közötti jobb kommunikáció szükségességére. és a felhasználók. Mivel a mesterséges intelligencia folyamatosan beépül a mindennapi élet és az üzleti élet különböző aspektusaiba, rendkívül fontos, hogy ezek a rendszerek hatékonyak és biztonságosak legyenek.