A Mark Pesce műszaki szakértő és informatikai rovatvezető egy jelentős hibát azonosított, amely számos nagy nyelvi modellek (LLM), beleértve a népszerű mesterséges intelligencia chatbotokban, például a ChatGPT-ben, a Microsoft Copilotban és a Google Geminiben használtakat. A látszólag egyszerű felszólítás által kiváltott hiba miatt a modellek inkoherens és végtelen kimenetet produkálnak, ami aggályokat vet fel ezen AI-rendszerek stabilitásával és megbízhatóságával kapcsolatban.

Érzéketlen és folyamatos kimenet

Amint Pesce a The Register című cikkében írja, a problémát felfedezték amikor megpróbált promptot létrehozni egy AI-alapú osztályozó. Az osztályozó a szellemi tulajdonjoggal foglalkozó ügyvédet hivatott segíteni a szubjektív megítélést igénylő feladatok automatizálásával. Amikor az OpenAI GPT-4 modelljét használó Microsoft Copilot Pro-n tesztelték, a felszólítás hatására a chatbot értelmetlen és folyamatos kimenetet generált. Hasonló viselkedést figyeltek meg más mesterséges intelligencia modelleknél is, beleértve a Mixtral-t és számos más modellt is, kivéve az Anthropic Claude 3 Sonnetjét. Pesce a következőket írja:

“Elkezdtem írni egy promptot ehhez az osztályozóhoz, valami nagyon egyszerű dologgal kezdve – ami nem nagyon különbözik attól a prompttól, amelyet bármelyik chatbotba betáplálnék. Hogy teszteljem, mielőtt elkezdtem volna drága API-hívásokat fogyasztani, beugrottam a Microsoft Copilot Pro-ba. A Microsoft márkajelzése alatt a Copilot Pro az OpenAI legjobb modelljének, a GPT-4-nek a tetején helyezkedik el. Gépelje be a promptot, és nyomja meg a return gombot.
 
A chatbot jól indult – a válasz első néhány szava miatt. Aztán zsivajszerű őrületbe süllyedt.” 

Iparági válaszok és kihívások

A Pesce jelentett a problémát különböző mesterségesintelligencia-szolgáltatóknak, köztük a Microsoftnak és Elon Musk xAI-nak, akik a Grok AI-termékek mögött állnak A hiba több modellben is alapvető problémát jelez, nem pedig elszigetelt hibát. A Microsoft biztonsági csapata azonban kevésbé biztató volt, mint a biztonsággal kapcsolatos hibát, míg más jelentős mesterségesintelligencia-cégek nem reagáltak. megfelelően vagy egyáltalán nem rendelkeztek közvetlen kapcsolatfelvételi adatokkal az ilyen kritikus problémák bejelentéséhez, ami rávilágít az ügyfélszolgálati és biztonsági folyamataikban fennálló jelentős hiányosságokra.

Az AI fejlesztésére gyakorolt ​​hatás

A felfedezés rávilágít az AI-technológiák robusztus támogatási és visszacsatolási mechanizmusok nélküli gyors elterjedésével kapcsolatos lehetséges kockázatokra. Az ezekben a rendszerekben előforduló hibák bejelentésére és kezelésére szolgáló egyértelmű csatorna hiánya veszélyt jelent azok megbízhatóságára és biztonságára nézve. Iparági szakértők hangsúlyozzák, hogy az AI-cégeknek hatékony folyamatokat kell kialakítaniuk az ügyfelek visszajelzéseinek kezelésére és a problémák azonnali megoldására. Amíg ezek az intézkedések nem lépnek életbe, a mesterséges intelligencia által vezérelt alkalmazások biztonsága és megbízhatósága kérdéses marad.

Pesce tapasztalatai egy tágabb problémára mutatnak rá az AI-iparon belül: a szigorúbb tesztelés és a fejlesztők közötti jobb kommunikáció szükségességére. és a felhasználók. Mivel a mesterséges intelligencia folyamatosan beépül a mindennapi élet és az üzleti élet különböző aspektusaiba, rendkívül fontos, hogy ezek a rendszerek hatékonyak és biztonságosak legyenek.

Categories: IT Info