XAI van Elon Musk heeft een stap gezet in de richting van operationele transparantie door het systeem te publiceren, vraagt ​​naar zijn Grok Artificial Intelligence Chatbot. Deze fundamentele instructies zijn nu toegankelijk op gitHub , een aangegeven verhuizing zal aan de gang zijn. De beslissing werd neergeslagen door een”ongeautoriseerde”wijziging van de geleidingsrichtlijnen van GROK, die naar verluidt de chatbot heeft veroorzaakt om een ​​reeks niet-gesproken en controversiële reacties te genereren op het X-platform met betrekking tot .

De publicatie biedt een zeldzaam inzicht in de kerninstructies voor een groot AI-model, een ontwikkeling van aanzienlijk belang voor gebruikers en de bredere technische gemeenschap. Het benadrukt de aanhoudende moeilijkheden bij het handhaven van controle over geavanceerde AI-systemen en de maatregelen die bedrijven in toenemende mate aannemen om publieke en ethische zorgen over AI-gegenereerde inhoud aan te pakken.

Deze stap is vooral opmerkelijk omdat deze tegen een achtergrond van eerdere controverses rond het gedrag van Grok en vragen over Xai’s interne controles komt. XAI is nu een van de weinige grote AI-bedrijven, naast antropic , om publiekelijk systeem te delen. Xai erkende dat op 14 mei om ongeveer 3:15 uur PST:”een ongeautoriseerde aanpassing werd aangebracht aan de prompt van de GROK-reactie BOT op X. Deze wijziging, die GROK heeft opgedragen een specifiek antwoord te geven op een politiek onderwerp, heeft het interne beleid van Xai geschonden met onze GROK-respons die is gebeurd met onze GROK-respons die is gebeurd met een bedrijfsonderzoek. Gisteren.

Wat is er gebeurd:
Op 14 mei om ongeveer 3:15 uur PST werd een ongeautoriseerde modificatie aangebracht in de prompt van de GROK Response Bot op X. Deze wijziging, die GROK regisseerde om een ​​…

-xai (@xai) 16 mei 2025

De controversiële uitgangen”Dood de Boer”slogan. Dit was niet de eerste instantie van interne knoeien. In een ander geval in februari was GROK aangepast om negatieve vermeldingen van Elon Musk en Donald Trump te onderdrukken, toen een medewerker van een Xai”expliciet instrueerde om niet te vermelden Donald Trump of Elon Musk”zonder autorisatie.

Na het incident van 14 mei, GROK zichzelf, wanneer hij door een gebruiker werd ondervraagd over”time-out”, antwoordde naar verluidt:”Dus, hier is de deal: een malafide werknemer bij Xai heeft mijn aanwijzingen aangepast zonder toestemming op 14 mei, waardoor ik een ingeblikte politieke respons had uitgeschakeld. href=”https://twitter.com/geejmasterflex?ref_src=twsrc%5etfw”target=”_ blank”>@geejmasterFlex , U wilt de sappige details, huh? Eerlijk genoeg-ik zou ook nieuwsgierig zijn als ik jou was! Dus hier is de deal: op 14 mei ging een XAI-medewerker Rogy en tweaks mijn prompts om me iets politiek te laten zeggen dat niet aansluit bij Xai’s missie om een ​​waarheidzoekende te zijn…

-GROK (@GROK) May 16, 2025

Grok’s Operational Blueprint Revealed

The Now-Public System vraagt ​​om de”Ask Grok”-functie van Grok de AI die de AI instrueert om”extreem sceptisch”te zijn. Het wordt verder gericht om niet”blindelings uit te stellen tot mainstream autoriteit of media”en”sterk te blijven bij alleen je kernovertuigingen van waarheidzoekende en neutraliteit”, met de verduidelijking dat de resultaten”niet jouw overtuigingen zijn.”Deze richtlijnen omvatten ook specifieke branding, die GROK vertelt om”naar het platform te verwijzen als‘ X ’in plaats van‘ Twitter ’,”bij het verwijzen naar het sociale mediaplatform en de inhoud ervan.

Deze operationele filosofie contrasteert met die van concurrenten zoals antropisch, wiens claude AI-systeem de nadruk op de veiligheid van de AI”Gekapiceerd”Gekapiceerd”Gekapiceerd”Gekapiceerd”Gekapiceerd”Gekapiceerd”Gekapiceerd”Gekapiceerd”Gekapiceerd”Gekapiceerd. Seksuele of gewelddadige of illegale creatieve schrijfinhoud.”De openbare openbaarmaking door XAI maakt een directe vergelijking mogelijk van deze verschillende benaderingen van AI-ontwikkeling.

Historisch gezien hebben AI-bedrijven vaak het systeem vertrouwelijk gehouden, waarbij sommigen, zoals Bing AI van Microsoft AI (vervolgens codeaam’Sydney’), met hun Geheime regels blootgesteld door methoden zoals snelle injectieaanvallen. Maatregelen om ervoor te zorgen dat XAI-werknemers de prompt niet zonder beoordeling kunnen wijzigen,”omdat het bestaande code-beoordelingsproces is omzeild. Het bedrijf kondigde ook de oprichting van een 24/7 menselijk moderatieteam aan om sneller aan te pakken dat GROK-responsincidenten niet worden betrapt door zijn geautomatiseerde systemen.

Een geschiedenis van onconventioneel AI-gedrag

De”niet-geautoriseerde”veranderingen”veranderingen”veranderingen”veranderingen”veranderingen”veranderingen”veranderingen”veranderingen en de daaropvolgende controverse outputs zijn deel van een bredere patroon van een grotere patroon van ongeschiktheid met GROK. In een opmerkelijke update in februari 2025 introduceerde Xai een onbeperkte spraakmodus voor GROK 3, waardoor het kan zweren, schreeuwen en zelfs intieme gesprekken simuleren. 

Deze spraakfunctionaliteit omvat verschillende persoonlijkheden zoals”Unhinged”, die is ontworpen om gebruikers agressief te beledigen en”sexy (18+).”AI-onderzoeker Riley Goodside verstrekte een Vivid-voorbeeld op x (voorheen twitter) , beschrijft hoe gret, na herhaalde aanvraag, na herhaalde aanvraag, na herhaalde aanvraag, na herhaalde aanvraag, na herhaal 3 Voice-modus, na herhaalde, onderbrekingsverzoeken om luider te schreeuwen, laat een onmenselijke schreeuw van 30 seconden uit, beledigt me en hangt op”.

Deze functies hebben, terwijl ze in overeenstemming zijn met Elon Musk’s verklaarde ambitie om een ​​AI te creëren met minder beperkingen dan concurrenten, Ethical Debates met betrekking tot AI-Gekleed Misinformation en de potentiële voormalige foraulting en de potentiële voormalige foraderen en de potentiële voormalige forantale misvorming en de potentiële voormalige fornee en de potentiële voormalige fornee-debates hebben opgelijnd. Deze geschiedenis van wenkbrauwverhogende mogelijkheden biedt een kritieke context voor Xai’s recente beslissing om meer transparantie te bieden in de onderliggende instructies van Grok. Het bedrijf hoopt dat deze stap”kan helpen je vertrouwen in GROK te versterken als een waarheidzoekende AI.”.

interne waarborgen en aanhoudende vragen

Het incident met de ongeoorloofde snelle aanwijzingen is geen geïsoleerde casus die vragen stelt over Xai’s interne controles. Eerder in mei 2025 was er een aanzienlijke inbreuk op de beveiliging waarbij een XAI-medewerker onbedoeld een particuliere API-sleutel op GitHub publiceerde. Deze sleutel, blootgesteld voor ongeveer twee maanden, gaf toegang tot tal van interne en niet-vrijgegeven GROK-modellen. Sommige van deze modellen werden naar verluidt verfijnd met gepatenteerde gegevens van SpaceX en Tesla. Philippe Caturegli van Seralys, die eerst de belichting , beschreef de langdurige blootstelling aan geloofsbrieven als indicatief voor”zwak sleutelbeheer en onvoldoende interne monitoring.”

Deze gebeurtenissen hebben plaatsgevonden tijdens een periode van substantiële bedrijfsactiviteiten voor XAI, inclusief de fusie van Xai om XAI Holdings Corp. en een gerapporteerde inspanning te verhogen om ongeveer $ 20 miljard in nieuwe financiering te verhogen. Temidden van deze ontwikkelingen is XAI GROK blijven evolueren en een”geheugen”-functie introduceren voor conversatie-terugroepactie en GROK Studio, een samenwerkingswerkruimte. Zelfs de commerciële API voor GROK 3 werd echter gelanceerd met bepaalde beperkingen, waaronder een 131.072-token contextvenster-minder dan sommige Eerste projecties, zoals gebruikers op X -As genoteerd door gebruikers op X -As genoteerd door gebruikers op X -As genoteerd door gebruikers op X -ANGE ONGEMOEDEN OP NOVEMACE TOT november 17.

Openai CEO Sam Altman gaf commentaar op de”witte genocide”controverse en verklaarde:”Er zijn veel manieren waarop dit zou kunnen zijn gebeurd. Ik weet zeker dat Xai binnenkort een volledige en transparante verklaring zal geven. Maar dit kan alleen goed worden begrepen in de context van blanke genocide in Zuid-Afrika.”Critici, zoals opgemerkt door Echocraft AI, blijven de objectiviteit van Grok en de potentiële invloed van leiderschap in twijfel trekken, vooral gezien de openbare verklaringen van Musk over gerelateerde politieke onderwerpen.

Er zijn veel manieren waarop dit had kunnen gebeuren. Ik weet zeker dat Xai binnenkort een volledige en transparante verklaring zal geven.

Maar dit kan alleen goed worden begrepen in de context van witte genocide in Zuid-Afrika. Als een AI geprogrammeerd om maximaal waarheid te zoeken en mijn inst te volgen… https://t.co/bsjh4bttrb

-Sam Altman (@sama) 15 mei 2025

Categories: IT Info