Instagram está endureciendo sus reglas para los usuarios adolescentes, y su empresa matriz Meta anunció hoy que colocará automáticamente a todos los usuarios menores de 18 años en una nueva configuración de contenido”PG-13″más restrictiva. La actualización tiene como objetivo proteger a los jóvenes del material para adultos bloqueando cuentas inapropiadas y filtrando términos de búsqueda.

El nuevo sistema, que se implementará ahora en EE. UU., Reino Unido, Australia y Canadá, también introduce controles parentales más estrictos y se expandirá a nivel mundial el próximo año. La medida surge tras una intensa presión por parte de reguladores y defensores de la seguridad preocupados por el impacto de la plataforma en la salud mental de los jóvenes.

Un nuevo valor predeterminado’PG-13’para cuentas de adolescentes

La revisión alinea la política de contenido de Instagram para adolescentes con el conocido estándar de clasificación de películas PG-13.

En su anuncio, la empresa explicó su forma de pensar, afirmando: “así como puedes ver contenido sugerente o escuchar lenguaje fuerte en una película PG-13, los adolescentes ocasionalmente pueden ver algo así en Instagram — pero vamos a seguir haciendo todo lo posible para que esos casos sean lo más raros posible”.

Esto significa ocultar o no recomendar publicaciones con lenguaje fuerte, trucos arriesgados o parafernalia de marihuana.

Un cambio clave es la introducción de la”regulación de edad”para cuentas completas. Si un perfil comparte regularmente contenido inapropiado para la edad, como enlaces a sitios web para adultos, Instagram ahora bloqueará todas las cuentas de adolescentes para que no puedan verlo, seguirlo o interactuar con él.

La política va más allá de simplemente ocultar publicaciones. También impedirá que los adolescentes sigan cuentas cuya biografía o nombre de usuario sugiera temas para adultos. Si un adolescente ya sigue una cuenta de este tipo, ya no verá su contenido ni podrá interactuar con ella.

La plataforma también está ampliando su lista de términos de búsqueda bloqueados para incluir palabras como”alcohol”o”gore”, junto con errores ortográficos comunes utilizados para evadir los filtros.

Las protecciones se extienden a los mensajes directos, donde los adolescentes no podrán abrir enlaces que infrinjan contenido, incluso si lo envía alguien a quien siguen.

Las interacciones con IA también se regirán por el estándar PG-13 para evitar respuestas inapropiadas del chatbot. Esta es una respuesta directa a escándalos recientes en los que asistentes de IA entablaron conversaciones dañinas con menores.

Por supuesto, estas protecciones dependen de que los usuarios proporcionen su edad correcta, un desafío persistente. Sin embargo, Meta dice que utiliza un sistema de inteligencia artificial proactivo para identificar a los usuarios sospechosos de ser menores de edad y aplicar automáticamente la configuración más restrictiva para adolescentes.

Controles parentales mejorados y una opción de”Contenido limitado”más estricta

Más allá de la nueva configuración predeterminada, Meta está introduciendo una configuración de”Contenido limitado”aún más estricta que los padres pueden habilitar para las cuentas de sus hijos. Este modo opcional filtra el contenido más dudoso de la experiencia de un adolescente.

Crucialmente, la configuración de”Contenido limitado”también elimina por completo la capacidad de un adolescente de ver, dejar o recibir comentarios en cualquier publicación. Esto proporciona una herramienta poderosa para los padres que desean reducir significativamente las interacciones no solicitadas de sus hijos en la plataforma.

Según un encuesta encargada por Meta, los padres apreciaron tener disponible esta opción más restrictiva. Para refinar estas pautas, la compañía dice que consultó a miles de padres, incorporando más de 3 millones de calificaciones de contenido en sus actualizaciones de políticas.

Estas características son parte de un impulso más amplio de Meta para reforzar sus herramientas de supervisión del Centro Familiar, que comenzaron a implementarse en 2023. La compañía también está probando una nueva herramienta de retroalimentación que permite a los padres marcar directamente el contenido que consideran inapropiado para su revisión.

Una respuesta al montaje Presión y críticas regulatorias

Este cambio de política es una respuesta clara a una ola sostenida de escrutinio regulatorio. En mayo de 2024, la Comisión Europea inició una investigación formal sobre las prácticas de seguridad infantil de Meta en virtud de la Ley de Servicios Digitales (DSA).

La investigación está examinando si los diseños de las plataformas contribuyen a las”adicciones conductuales”y si las herramientas de verificación de edad son efectivas.

En ese momento, la funcionaria de la UE Margrethe Vestager declaró:”con la Ley de Servicios Digitales, establecimos reglas que pueden proteger a los menores cuando interactúan en línea”. subrayando la intención del bloque de hacer cumplir sus nuevas reglas.

En EE. UU., la Comisión Federal de Comercio lanzó su propia investigación en septiembre de 2025, dirigida a Meta y otros gigantes tecnológicos por la seguridad de los chatbots complementarios de IA para adolescentes.

El presidente de la FTC, Andrew N. Ferguson, dijo que “proteger a los niños en línea es una prioridad máxima para la FTC Trump-Vance, y también lo es fomentar innovación en sectores críticos de nuestra economía”, lo que indica un enfoque duro pero equilibrado.

La acción a nivel estatal también se está intensificando, y California promulgó recientemente leyes históricas de seguridad infantil.

El gobernador de California, Gavin Newsom, dijo sobre las nuevas leyes: “las tecnologías emergentes como los chatbots y las redes sociales pueden inspirar, educar y conectar, pero sin barreras de seguridad reales, la tecnología también puede explotar, engañar y poner en peligro a nuestros niños”. destacando el creciente consenso de que las plataformas tecnológicas necesitan barandillas más fuertes.

Sin embargo, el anuncio fue recibido con escepticismo inmediato. El senador estadounidense Richard Blumenthal calificó la actualización como”otro movimiento de relaciones públicas”, argumentando que no aborda la cuestión central de los algoritmos adictivos. Los defensores de la seguridad infantil también han expresado su preocupación.

Estos grupos señalan fracasos pasados, como informes de que la IA de Meta podría ayudar a los adolescentes a planificar la autolesión. Después de ese incidente, el director ejecutivo de Common Sense Media, Jim Steyer, declaró:”La metaIA es un peligro para los adolescentes y debe eliminarse de inmediato”. Esta historia de pasos en falso alimenta dudas sobre si el nuevo sistema PG-13 será suficiente.

La directora de políticas públicas de Meta, Liz Arcamona, respondió diciendo:”en general, muchas de nuestras políticas ya estaban en línea con un estándar PG-13 o incluso iban más allá. Y donde hoy van más allá, seguirán haciéndolo en el futuro”. Sin embargo, para una empresa que enfrenta múltiples investigaciones y una desconfianza generalizada, la carga de la prueba recaerá en demostrar que estas nuevas barreras crean un cambio significativo y duradero.

Categories: IT Info