Eksperti i teknologjisë dhe kolumnisti i IT Mark Pesce ka identifikuar një defekt të madh që prek një gamë të gjerë të modelet e gjuhës (LLM), duke përfshirë ato të përdorura në chatbotet e njohura të AI si ChatGPT, Microsoft Copilot dhe Google Gemini. E meta, e shkaktuar nga një nxitje në dukje e thjeshtë, bën që modelet të prodhojnë rezultate jokoherente dhe të pafundme, duke ngritur shqetësime për stabilitetin dhe besueshmërinë e këtyre sistemeve të AI.
Prodhimi i pakuptimtë dhe i vazhdueshëm
Siç shkruan Pesce në artikullin e tij për Regjistrin, çështja u zbulua kur ai u përpoq të krijonte një kërkesë për një Klasifikues i bazuar në AI. Klasifikuesi kishte për qëllim të ndihmonte një avokat të pronësisë intelektuale duke automatizuar detyrat që kërkonin gjykime subjektive. Kur u testua në Microsoft Copilot Pro, i cili përdor modelin GPT-4 të OpenAI, kërkesa bëri që chatbot të gjeneronte rezultate të pakuptimta dhe të vazhdueshme. Sjellje e ngjashme u vërejt në modele të tjera të AI, duke përfshirë Mixtral dhe disa të tjerë, me përjashtim të Sonetit Claude 3 të Anthropic. Pesce shkruan:
“Unë u nisa të punoja për të shkruar një kërkesë për atë klasifikues, duke filluar me diçka shumë të thjeshtë – jo shumë të ndryshme nga një kërkesë që do të futja në çdo chatbot. Për ta testuar përpara se të filloja të konsumoja thirrje të shtrenjta API, e futa në Microsoft Copilot Pro. Nën markën e Microsoft, Copilot Pro qëndron në krye të modelit më të mirë në klasë të OpenAI, GPT-4. Shkruani kërkesën dhe shtypni kthimin.
Chatbot filloi mirë-për fjalët e para në përgjigjen e tij. Më pas ajo zbriti në një çmenduri të ngjashme me llafazan.”
Përgjigja dhe Sfidat e Industrisë
Pesce e raportoi problemin te ofruesit e ndryshëm të shërbimeve AI, duke përfshirë Microsoft dhe xAI të Elon Musk, të cilët qëndrojnë pas produkteve Grok AI, konfirmuan përsëritjen e tyre e meta në shumë modele, që tregon një problem themelor dhe jo një gabim të izoluar. Megjithatë, ekipi i sigurisë i Microsoft-it e hodhi poshtë këtë çështje si një gabim që nuk lidhet me sigurinë, ndërsa firmat e tjera të njohura të AI nuk arritën të përgjigjen. Në mënyrë adekuate ose fare, Disa kompani nuk kishin informacion kontakti të drejtpërdrejtë për raportimin e çështjeve të tilla kritike, duke theksuar një boshllëk të rëndësishëm në mbështetjen e klientëve dhe proceset e tyre të sigurisë.
Implikimet për zhvillimin e AI
Zbulimi nënvizon rreziqet e mundshme që lidhen me vendosjen e shpejtë të teknologjive të AI pa mbështetje të fuqishme dhe mekanizma reagimi. Mungesa e një kanali të qartë për raportimin dhe adresimin e gabimeve në këto sisteme përbën një kërcënim për besueshmërinë dhe sigurinë e tyre. Ekspertët e industrisë theksojnë nevojën që firmat e AI të krijojnë procese efikase për trajtimin e reagimeve të klientëve dhe zgjidhjen e menjëhershme të çështjeve. Derisa të vendosen këto masa, siguria dhe besueshmëria e aplikacioneve të drejtuara nga AI mbeten në pikëpyetje.
Përvoja e Pesce tregon për një çështje më të gjerë brenda industrisë së AI: domosdoshmërinë për testime më rigoroze dhe komunikim më të mirë midis zhvilluesve. dhe përdoruesit. Ndërsa AI vazhdon të integrohet në aspekte të ndryshme të jetës së përditshme dhe të biznesit, është thelbësore të sigurohet që këto sisteme të jenë efektive dhe të sigurta.