Discord presenta nuevos controles parentales para controlar a sus hijos

Jul 12 2023
El Family Center hará un seguimiento de la cantidad de llamadas o mensajes, la cantidad de amigos agregados y de cuántos servidores es miembro un usuario.

Discord, la red social de referencia para jugadores notoriamente sensatos y respetuosos, quiere que su plataforma sea más amigable para los niños. La compañía presentó el martes Family Center , una nueva herramienta para ayudar a los padres y tutores a controlar la actividad de sus hijos en la aplicación.

El Family Center es una herramienta a la que los padres tendrán que optar , pero una vez que lo hagan, serán recibidos con métricas y datos sobre cómo su hijo pasa el tiempo en Discord . La nueva función tiene dos componentes principales: un panel de actividad y un informe de correo electrónico semanal. El tablero incluye datos sobre la cantidad de usuarios que el niño ha llamado o enviado mensajes, la cantidad de amigos que ha agregado y de cuántos servidores es miembro el niño; el tablero no revelará el contenido de ningún mensaje que tenga el niño . enviado, ya sea escrito o hablado . El informe por correo electrónico contiene un resumen de esos datos y se envía por correo electrónico a los padres una vez por semana.

“Family Center brinda a los padres lo que necesitan para ayudar a guiar el uso de Discord por parte de sus hijos adolescentes sin invadir su privacidad”, dijo Larry Magid en un comunicado de prensa compartido con Gizmodo. Magid es el CEO de ConnectSafely.org, uno de los socios de Discord en el proyecto. “Es como el mundo físico en el que sabes con quién están tus hijos y a dónde van, pero no escuchas sus conversaciones ni controlas minuciosamente sus relaciones”.

Los padres pueden inscribirse en el Centro familiar dirigiéndose a Configuración de usuario y haciendo clic en Centro familiar. Tanto el padre como el niño deberán completar la configuración para que el padre tenga acceso al Family Center.

El Family Center es el último intento de Discord de limpiar su plataforma. El año pasado, la compañía presentó una herramienta autónoma de moderación de contenido llamada AutoMod que filtra palabras clave para ayudar a los moderadores a detectar más rápidamente el juego sucio en la plataforma. En octubre pasado, The Gamer informó que Discord reveló en un informe de seguridad trimestral que más de 55 millones de cuentas de usuario y más de 68 mil servidores se cerraron entre enero y junio porque eran spam o estaban relacionados con spam.