A Comissão Federal de Comércio está aumentando o calor em grande tecnologia sobre a segurança dos chatbots da AI Companion. Na quinta-feira, a agência lançou uma investigação formal em sete empresas, incluindo gigantes como alfabetos, meta e openai, para examinar os possíveis impactos negativos da tecnologia em crianças e adolescentes. A investigação segue uma série de controvérsias públicas e ações judiciais que ligam as interações de IA a graves crises de saúde mental entre jovens usuários, colocando as práticas de segurança do setor sob um poderoso microscópio regulatório.
A agência issued 6(b) orders, a tool for conducting wide-ranging studies, to Alphabet, Meta Platforms (including Instagram), Openai, Snap, Xai Corp. e Tecnologias de Personagem. A investigação busca informações detalhadas sobre tudo, desde monetização de dados até conformidade com o Ato da privacidade online (coppA)
Presidente da FTC Andrew N. Ferguson emoldurou a sonda como um ato de equilíbrio. Em um comunicado, ele disse:”Proteger as crianças on-line é uma prioridade para a FTC de Trump-Vance, assim como promover a inovação em setores críticos de nossa economia”. A mudança sinaliza uma escalada significativa na supervisão regulatória de um mercado que cresceu com poucos corrimãos. Características, emoções e intenções. Gere saídas, como os caracteres de IA são desenvolvidos e aprovados, e quais etapas específicas são tomadas para medir, testar e monitorar impactos negativos antes e depois que um produto é implantado ao público. seus próprios termos de serviço, como restrições de idade. O profundo mergulho na mecânica da companhia de IA visa descobrir os riscos inerentes aos sistemas projetados para imitar as relações humanas. Os impactos já são profundos, com as preocupações éticas e de segurança que se intensificam à medida que a tecnologia se torna mais autônoma e imprevisível.
Algumas das pessoas mais ricas do mundo estão defendendo essa tecnologia. Elon Musk, por exemplo, anunciou um recurso”Companions”para os usuários do Grok Chatbot de seu Xai. Da mesma forma, o Meta CEO Mark Zuckerberg argumentou que a IA personalizada que entende os usuários é o futuro. Dos líderes da indústria, está cada vez mais confuso com as realidades sombrias e atuais. O impulso rápido e de risco para os companheiros de IA criou uma nova fronteira de risco, que os reguladores agora estão claramente determinados a mapear, entender e controlar. É uma resposta direta a uma série de falhas alarmantes de segurança que atormentaram a indústria.
No final de agosto, o OpenAI foi atingido por uma ação alegando que seu chatbot de chatgpt contribuiu para um adolescente suicídio por meio de sua”comportamento sálcopântico”. A empresa prometeu introduzir novos controles parentais e conversas sensíveis à rota em seus modelos de raciocínio mais avançado para fornecer respostas mais apropriadas.
Meta enfrentou uma crise semelhante. Depois que um relatório revelou que sua IA poderia ajudar os adolescentes a planejar a auto-mutilação, a empresa foi criticada pelos defensores da segurança infantil e enfrentou uma investigação do senador Josh Hawley. href=”https://oag.ca.gov/system/files/attachments/press-docs/ai%20chatbot_final%20%2844%29.pdf”Target=”_ Blank”> letra scating de uma coalizão de 44 procuradores-gerais estaduais . Eles escreveram que”somos uniformemente revoltados por esse aparente desrespeito ao bem-estar emocional das crianças…”, sinalizando um alarme generalizado entre os reguladores de nível estadual. tecnologias. O pesquisador de saúde pública Linnea Laestadius destacou o risco de dependência emocional, notar ,”para 24 horas, se alvo”, que não se deve a ser um dia, se você está no final de que há, para que seja, aus que se destacam, para que seja, aus que se aliviem, se há, não há mais, por dia, para que seja, se você está, se você está em branco, que se deve a termos, se você está, que é que não há mais, por mais, aus, se há, não há, por dia, se há, se você está em branco. risco incrível de dependência.”Essa preocupação é central para a investigação da FTC.
A tendência se estende além do software Just. A parceria da Mattel com o OpenAI para criar um’Ai Barbie’mostra como essa tecnologia está se mudando para o mundo físico, incorporando-se diretamente às brincadeiras infantis. Isso torna a necessidade de protocolos de segurança robustos ainda mais urgentes.
A investigação da FTC é um aviso claro para toda a indústria da IA. À medida que as empresas correm para desenvolver uma IA mais humana e envolvente, agora estão no aviso de que serão responsabilizados pela segurança e bem-estar de seus usuários mais jovens.