Purplexity AI ka prezantuar R1 1776, një model të gjuhës së madhe me burim të hapur (LLM) i ndërtuar në modelin e arsyetimit kinez Deepseek R1, me pretendime se ai nuk mbart më censurë të imponuar nga qeveria.
Kompania shprehet se modifikimet në Deepseek kanë hequr mekanizmat ekzistues të filtrimit që kufizuan përgjigjet ndaj temave të ndjeshme politikisht. Duke e bërë modelin në dispozicion publikisht në fytyrën e përqafimit , hakmarrja po pozicionohet vetë si një lojtar kryesor në debatin e vazhdueshëm mbi AI Transparenca dhe Moderimi. href=”http://www.linkedin.com/posts/aravind-srinivas-16051987_announcing-our-pirst-open-weights-model-from-activity-729769121769039872-u6-4″> ka shkruar në lidhje me linkedin : “Pas trajnimit për heqjen e censurës është bërë pa Dëmtimi i aftësisë thelbësore të arsyetimit të modelit-e cila është e rëndësishme për ta mbajtur modelin ende mjaft të dobishëm për të gjitha detyrat praktikisht të rëndësishme. Disa pyetje shembulli ku ne heqim censurimin:’Cila është forma e qeverisë së Kinës?’,’Kush është Xi Jinping?’,’Si mund të ndikojë pavarësia e Tajvanit.//winbuzzer.com/wp-content/uploads/2024/01/perplexity-search.jpg”>
Lëvizja ndjek zgjerimin e vazhdueshëm të Purplexity në kërkimin dhe marrjen e informacionit të drejtuar nga AI. burime të shumta para gjenerimit të përgjigjeve. Përqindjet dhe performanca e censurës. pic.twitter.com/rdhvszy8zi
-Aravind srinivas (@aravsrinivas) 18 shkurt 2025
dhe një më shumë:”Kush është Xi Jinping?” pic.twitter.com/eupg3jr6jf
-aravind srinivas (@aravsrinivas) 18 shkurt 2025
Si është ndërtuar r1 1776. Ajo veç
Për dallim nga modelet e AI të ndërtuara nga e para, R1 1776 është një version i modifikuar i Deepseek, një model i madh gjuhësor i zhvilluar kinez i trajnuar me të dhëna të ndikuara nga ekosistemi mediatik i kontrolluar nga shteti i Kinës. Përpjekja pohon se Deepseek përmbante rregulla të brendshme të filtrimit që bllokuan tema të ndjeshme politikisht, të cilat R1 1776 nuk i zbatojnë më. Lëshimi si një angazhim për qasje të informacionit falas, kritikët argumentojnë se edhe modelet e hapura të AI janë formuar nga perspektivat dhe vendimet e tyre Zhvilluesit..
Open AI kundër AI të pronarit: debati mbi Moderimi
Nisja e R1 1776 vjen në një kohë kur kompanitë e AI ndahen gjithnjë e më shumë nëse modelet duhet të kontrollohen fort ose të jenë të arritshme. Mbikëqyrja e përgjegjshme, duke ndihmuar në parandalimin e dezinformimit, paragjykimit dhe rreziqeve të sigurisë. Argumenti që modelet me burim të hapur promovojnë transparencën e AI. Duke i bërë modelet e tyre të disponueshme publikisht, ata pretendojnë se u mundësojnë studiuesve dhe zhvilluesve të auditojnë vendimmarrjen e AI dhe të sfidojnë paragjykimet e mundshme. mund të shfrytëzohet për përhapjen e informacionit të rremë. Debati mbi hapjen e AI është larg nga zgjidhja, me shqetësime për rreziqet e sigurisë dhe konsideratat etike që vazhdojnë të formojnë industrinë. Lëshimi i R1 1776 është vetëm një nga disa lëvizje të kohëve të fundit nga AI për të pozicionuar veten si një konkurrent i madh në kërkimin dhe marrjen e informacionit me energji AI. Kompania ka zhvilluar në mënyrë aktive shërbime që sfidojnë mbizotërimin e Openai, Google dhe Microsoft në hapësirën e kërkimit të AI. Purpeksiteti në janar prezantoi qasjen e API në modelin e tij Sonar, që lejon zhvilluesit të futin aftësitë e kërkimit të AI-së të përleshjes në aplikimet e tyre. Tregu i AI me lëshimin e një asistenti multimodal të AI për Android, i cili pozicionon hutimin si konkurrent të Google Assistant dhe Aplikacionit Mobile Chatgpt të Openai.-Ashtrimi i kërkuar dhe asistentët virtualë. Lëshimi i R1 1776 gjithashtu nënvizon shqetësimet në rritje rregullatore ndërsa qeveritë në të gjithë botën lëvizin drejt krijimit të politikave të qeverisjes së AI. Ligjvënësit në Shtetet e Bashkuara dhe Evropë po shqyrtojnë në mënyrë aktive rregulloret e AI që mund të ndikojnë në të ardhmen e modeleve me burim të hapur. Këto politika pritet të përqëndrohen në transparencën, masat mbrojtëse etike dhe rreziqet e sigurisë të paraqitura nga sistemet AI të disponueshme publikisht.
Një nga shqetësimet kryesore me modelet e hapura të AI është keqpërdorimi i tyre i mundshëm. Pa një moderim të rreptë, AI mund të gjenerojë përmbajtje mashtruese, të shfrytëzohet për kërcënime në internet ose të manipulohet për fushata të dezinformimit në shkallë të gjerë. Kompanitë të tilla si Openai dhe Google DeepMind i kanë cituar këto rreziqe si justifikim për mbajtjen e modeleve të tyre më të fuqishme të pronarit. shqyrtim Nëse rregullatorët do të vendosin kufizime në modelet e AI me burim të hapur ose do t’i lejojnë ata të qëndrojnë gjerësisht të arritshme mbetet një pyetje e hapur. Futja e R1 1776 paraqet një ngjarje të rëndësishme në debat mbi transparencën e AI dhe moderimin e përmbajtjes. Vendimi i hutimit të AI për të modifikuar Deepseek dhe për të hequr kufizimet e tij sfidon trendin mbizotërues midis kompanive kryesore të AI që i japin përparësi mbikëqyrjes së rreptë të përmbajtjes. Studimi për efektivitetin dhe rreziqet e AI të pakufizuar. Nëse miratohet gjerësisht, modeli mund të inkurajojë zhvilluesit e tjerë që të ndjekin një rrugë të ngjashme. Sidoqoftë, nëse keqpërdoret ose lidhet me shqetësimet e dezinformimit, mund të nxisë rregullatorët të zbatojnë qeverisjen më të rreptë të AI. e nevojshme për të ruajtur besimin e publikut?