o OpenAI reduziu as isenções de responsabilidade anexadas às interações ChatGPT. O chefe do produto Nick Turley observou em X que esses alertas de caixa de laranja se tornaram”desnecessários”, embora ele insistisse que as salvaguardas permanecessem: “[Como] desde que você cumpra a lei e não prejudique a si mesmo ou aos outros.”

Remover os avisos pop-up óbvios pode confundir os usuários sobre os limites da política reais, mesmo que as solicitações proibidas permaneçam bloqueadas. No entanto, tais isenções de responsabilidade também podem dar aos usuários dicas valiosas para trapacear o sistema, especialmente porque casos como aconselhamento sobre a construção de armas ou atividades extremistas continuam reaparecendo. Portanto, a mudança não parece ser apenas uma melhor experiência do usuário. você ou outros. Animado para reverter muitos avisos desnecessários na interface do usuário.

Obrigado @joannejang & @Laurentia ___ @Laurentia ___ @Laurentia ___ @Laurenta ___ Para vir (envie-nos feedback!) href=”https://twitter.com/nickaturley/status/1890140016451682379?ref_src=twsrc%5etfw”> fevereiro 13, 2025

Embora as mensagens de alerta façam uma participação visível em uma participação visível em uma participação visível em uma parte visível em uma parte visível em uma parte visível em uma parte visível em uma participação visível em uma participação de uma participação de uma participação de uma participação de uma participação de uma participação de uma participação de uma participação de 2025 , O OpenAi argumenta que eles às vezes recusavam instruções benignas, irritando os usuários do cotidiano. Eles agora eles são mais como”barreiras desnecessárias”em vez de defesas principais. Amigável, terá que ser visto. Limitações. Identificamos proativamente essa violação de nossas políticas e notificamos o desenvolvedor para interromper essa atividade antes do recebimento de sua consulta”. Os analistas argumentam que os isenção de responsabilidade anterior desenharam uma linha acentuada contra consultas militarizadas, levantando questões sobre se os avisos menos conspícuos poderiam convidar novos abusos. Os registros divulgados pelos investigadores mostraram que ele manipulava os avisos para extrair detalhes parciais de fabricação de bombas. Os usuários que recordam esses eventos se perguntam se menos isenções de responsabilidade podem encorajar instruções igualmente prejudiciais, embora o OpenAI insista ao seu sistema de recusa subjacente permanece inalterado. O pesquisador de segurança David Kuszmar descobriu o que chamou de exploração”Time Bandit”, que permitiu aos usuários manipular a percepção de tempo da IA ​​de extrair informações restritas. Diferente abordagem. requer mais recursos de computação.

Categories: IT Info