-
Al menos el 68 por ciento de las marcas utiliza la IA para implementarla en sus procesos.
-
Youtube implementará IA para poder encontrar cuentas de menores y eliminarlos.
-
El 78 por ciento de las empresas utiliza la IA para mejorar sus sistemas de seguridad.
La plataforma de Youtube utilizará inteligencia artificial con la intención de bloquear cuentas de niños que esten en la plataforma, esto para eliminar cuentas que están expuestas a contenido no apto para los menores y que pueden perjudicar de manera diferente a lo esperado.
A partir del próximo mes, YouTube comenzará a implementar un sistema basado en inteligencia artificial para identificar cuentas que pertenezcan a menores de edad. La plataforma utilizará una combinación de edad registrada y patrones de actividad para determinar si el usuario tiene menos de 18 años, incluso si no lo ha declarado explícitamente.
Consumidora exhibe curiosa hielera de ICEE en Sam’s para preparar raspados
Este nuevo enfoque tiene como objetivo reforzar la protección infantil dentro del ecosistema de Google, en un contexto donde los organismos reguladores han incrementado su escrutinio sobre cómo las plataformas digitales manejan los datos y la seguridad de los menores.
Una vez detectadas, las cuentas de usuarios adolescentes o niños recibirán ajustes automáticos, como restricciones en los tipos de videos que pueden visualizar, desactivación de funciones como comentarios y limitaciones en la personalización de anuncios.
La iniciativa se alinea con políticas similares que han adoptado otras plataformas, como TikTok o Instagram, en respuesta a preocupaciones sobre el bienestar digital y la exposición a contenidos sensibles.
Con esta medida, YouTube busca adelantarse a posibles sanciones regulatorias y mejorar su imagen frente a padres, escuelas y organismos de protección infantil, ya que algunos contenidos no deberían exponerse a los niños.
Aunque la empresa no ha detallado exactamente qué parámetros utilizará la IA para perfilar las cuentas, sí ha asegurado que el sistema priorizará la privacidad del usuario y que se actualizará conforme evolucione el uso que los jóvenes hacen de la plataforma.
Protección a menores
La protección a menores se ha convertido en un eje crucial para las marcas que buscan construir una relación responsable y duradera con sus audiencias.
A medida que los niños y adolescentes se integran al ecosistema digital y consumen contenidos desde edades cada vez más tempranas, las empresas deben asumir un compromiso ético que va más allá de cumplir con regulaciones: se trata de establecer límites claros, ofrecer contenidos seguros y garantizar entornos donde su bienestar esté al centro.
En este contexto, las marcas que comercializan productos dirigidos al público infantil han reformulado sus estrategias de comunicación, evitando la sobreexposición de menores, regulando la publicidad invasiva y diseñando campañas que promuevan valores positivos.
Captan a hombre con el nuevo iPhone 17 y confirman teorías
Además, en plataformas digitales, muchas compañías han optado por restringir funciones como el chat, el acceso a compras o ciertos contenidos en función de la edad del usuario.
Los lineamientos globales también están empujando estas prácticas: normativas como el GDPR-K en Europa o la COPPA en Estados Unidos exigen que las empresas establezcan políticas claras sobre el manejo de datos de menores y obtengan el consentimiento de los padres. Esta tendencia ha motivado ajustes en diseño, contenido y canales de difusión.
Xbox
Un caso reciente es el de Microsoft con Xbox en Reino Unido, donde la compañía comenzó a exigir verificación de edad para poder seguir accediendo a funciones sociales dentro de su plataforma, reforzando su compromiso con la seguridad de los menores sin dejar de lado la experiencia de juego.
Lee también:
Captan a hombre con el nuevo iPhone 17 y confirman teorías
Estos son los artistas que dejarán Spotify tras anunciar inversión militar
Muchos jugarían “El Juego del Calamar” real por un millón de dólares, según estudio