L’expert technique et chroniqueur informatique Mark Pesce a identifié une faille majeure affectant un large éventail de grands modèles de langage (LLM), y compris ceux utilisés dans les chatbots d’IA populaires tels que ChatGPT, Microsoft Copilot et Google Gemini. La faille, déclenchée par une invite apparemment simple, amène les modèles à produire des résultats incohérents et sans fin, soulevant des inquiétudes quant à la stabilité et à la fiabilité de ces systèmes d’IA.
Sortie absurde et continue
Comme Pesce l’écrit dans son article pour The Register, le problème a été découvert. lorsqu’il a tenté de créer une invite pour un Classificateur basé sur l’IA. Le classificateur était destiné à aider un conseil en propriété intellectuelle en automatisant les tâches nécessitant des jugements subjectifs. Lorsqu’elle a été testée sur Microsoft Copilot Pro, qui utilise le modèle GPT-4 d’OpenAI, l’invite a amené le chatbot à générer une sortie continue et absurde. Un comportement similaire a été observé dans d’autres modèles d’IA, notamment Mixtral et plusieurs autres, à l’exception de Claude 3 Sonnet d’Anthropic. Pesce écrit :
“Je me suis mis à écrire une invite pour ce classificateur, en commençant par quelque chose de très simple-pas très différent d’une invite que j’insérerais dans n’importe quel chatbot. Pour le tester avant de commencer à utiliser des appels API coûteux, je l’ai inséré dans Microsoft Copilot Pro. Sous la marque Microsoft, Copilot Pro se situe au-dessus du meilleur modèle d’OpenAI, GPT-4. J’ai saisi l’invite et j’ai appuyé sur Entrée.
Le chatbot a bien démarré – pour les premiers mots de sa réponse. Ensuite, cela a sombré dans une folie semblable à un bavardage.
Réponse et défis de l’industrie
Pesce a signalé le problème à divers fournisseurs de services d’IA, notamment Microsoft et xAI d’Elon Musk, qui sont à l’origine des produits Grok AI et ont confirmé la réplication de. la faille sur plusieurs modèles, indiquant un problème fondamental plutôt qu’un bug isolé. Cependant, la réponse des autres sociétés a été moins encourageante. de manière adéquate, voire pas du tout, certaines entreprises ne disposaient d’aucune information de contact directe pour signaler des problèmes aussi critiques, ce qui met en évidence une lacune importante dans leurs processus de support client et de sécurité.
Implications pour le développement de l’IA
La découverte souligne les risques potentiels associés au déploiement rapide des technologies d’IA sans mécanismes solides de support et de retour d’information. L’absence d’un canal clair pour signaler et corriger les bogues dans ces systèmes constitue une menace pour leur fiabilité et leur sécurité. Les experts du secteur soulignent la nécessité pour les entreprises d’IA d’établir des processus efficaces pour traiter les commentaires des clients et résoudre les problèmes rapidement. Jusqu’à ce que ces mesures soient en place, la sécurité et la fiabilité des applications basées sur l’IA restent remises en question.
L’expérience de Pesce met en évidence un problème plus large au sein de l’industrie de l’IA : la nécessité de tests plus rigoureux et d’une meilleure communication entre les développeurs. et les utilisateurs. Alors que l’IA continue de s’intégrer dans divers aspects de la vie quotidienne et des affaires, il est primordial de garantir que ces systèmes sont à la fois efficaces et sécurisés.