La AUC pide que las redes sociales regulen sus contenidos como las plataformas convencionales
La Asociación de Usuarios de la Comunicación entiende que los vídeos deben estar calificados por edades y considera que las comunicaciones comerciales deben seguir las mismas reglas que en la televisión
Lo habrán visto a nada que se muevan un poco por internet. A la proliferación de todo tipo de noticias falsas y de publicidad encubierta, se ha sumado una nueva corriente de 'influencers' que glorifica las criptodisivas y promete a su audiencia, a menudo muy joven, una vida de lujo y en sueño casi sin mover un dedo. Lo cierto es que el asunto alcanza ya cotas de epidemia. Una epidemia a la que la Asociación de Usuarios de la Comunicación quiere poner límites, con el fin de proteger a los menores ante contenidos perjudiciales e inadecuados y para defender también los intereses de los consumidores y usuarios ante las comunicaciones comerciales ilícitas.
Sus propuestas para acabar con este todo vale que parece fluir por internet, ahora que la la nueva Ley General de Comunicación Audiovisual se encuentra en plena tramitación parlamentaria, es que plataformas y redes sociales como YouTube, Vimeo, Twitch, Instagram, Tik Tok, Facebook o Twitter se acojan a las mismas reglas a las que están sometidas las televisiones lineales, que tienen una normativa concreta en lo referente a las comunicaciones comerciales y que están obligadas no solo calificar por edades los contenidos que difunden sino a emitir contenidos adultos solo en determinadas franjas horarias. Del mismo modo, piden regular la figura de los usuarios generadores de contenidos, ajustándose a esas mismas obligaciones en lo referente a los menores y a la publicidad. «Hay que tener en cuenta que sus seguidores, especialmente entre menores y jóvenes, superan a la audiencia de muchos programas de televisión», apunta el estudio.
«El tema tiene dificultades porque hay que conciliar dos normativas que son la Ley de Servicios de la Sociedad de la Información y la Ley General de la Comunicación Audiovisual, pero creo que casi todo el mundo entiende que el objetivo es que los ciudadanos deben tener el mismo nivel de protección, independientemente de dónde decidan ver un contenido. No puede ser que yo vea el mismo contenido en la televisión y en internet, y en un caso esté protegido y en otro no. A partir de ahí, se trata de encontrar la forma mas realista de poder hacerlo«, explica Alejandro Perales, presidente de la Asociación de Usuarios de la Comunicación.
Son las conclusiones a las que han llegado tras analizar cerca de 4.000 contenidos audiovisuales, entre programas generados y difundidos por las propias plataformas y vídeos generados por sus usuarios, en un estudio en el que se ha hecho especial hincapié en los influencers. En cuanto al libre acceso de los menores a contenidos inadecuados, el informe revela que en general solo un 1,1% de los contenidos analizados presenta algun tipo de señal o advertencia de edad y que en el caso de los contenidos perjudiciales solo un 5,5% presenta estas advertencias. Esas señales, revela el trabajo, se concentran en las plataformas de vídeo, pero «prácticamente no existen en las redes sociales». Destaca, además, que aunque estas plataformas rara vez alojan pornografía o violencia extrema, su acceso para los menores sigue siendo «total» en internet.
En lo que respecta a la publicidad, el informe señala que un tercio de los mensajes publicitarios y promocionales detectados son comunicaciones comerciales encubiertas y que estas se registran fundamentalmente entre los influencers -en un 84,6% de los casos forman parte de vídeos generados por los usuarios-. Se queja también la asociación, de la saturación publicitaria a la que se ven sometidos los espectadores. En el caso de los programas difundidos por las plataformas, un 37,4% de los contenidos presentaba cuatro o más cortes publicitarios por cada 30 minutos, algo que además de aumentar la percepción invasiva de la publicidad, «menoscaba la integridad de los contenidos», explica Perales. En el caso de las redes sociales, se analizaron casi 2.000 contenidos en cien sesiones de 5 minutos. Tomando como base dichas sesiones, en un 84,6% de los vídeos se detectó publicidad intercalada y en un 44% de ellos, las comunicaciones comerciales suponen entre un 25% y un 50% de los contenidos de la sesión. También en cuanto a otros formatos publicitarios y promocionales, las plataformas y las redes sociales se benefician de la falta de regulación frente a las restricciones de las televisiones. Así en un 73% de los patrocinios hay mensajes directos a la incitación de la compra y en los emplazamientos de marca en un 100% de los casos no hay señalización ni advertencia y de nuevo hay mensajes directos incitando a la compra.
Pero hay más, es fácil ver, por ejemplo, cómo se ofertan productos de salud sin evidencia científica ni autorización alguna, bebidas alcohólicas de forma encubierta o mostrando su ingesta por parte de los responsables y los invitados de los programas, incluso con productos de alta graduación. Tabaco, autopromociones o medicamentos tienen también su espacio en la red de redes. Cabe decir, eso sí, que tras la aprobación del Real Decreto de desarrollo de la Ley del Juego, las comunicaciones comerciales de juegos y apuestas han desaparecido de las plataformas y las redes sociales no especializadas, aunque hay alguna presencia puntual 0,2%.
El último punto en el que hace hincapié el informe es en las comunicaciones comerciales dirigidas especialmente a los menores. En este punto, la asociación ha visto incitación directa a los menores a la compra en un 8,9% de los mensajes publicitarios y destacan «casos de publicidad muy agresiva». También ponen el foco en la prescripción de productos por parte de influencers «que explotan la confianza y credulidad de los menores» incitándoles a la compra y en el acceso de los menores a contenidos de estética que «imponen cánones de belleza estrictos y excluyentes» así como comunicaciones de productos «ricos en grasas». En ambos casos, las televisiones cuentan con reglas que restringen el acceso a los menores.
Así las cosas, está claro que los sistemas de control parental que se implementan desde las casas no funcionan del todo bien. «Tienen dos problemas. Muchos de ellos están basados en terminología y la terminología es muy engañosa. Lo que sucede es que en algunos casos van más allá, bloqueando contenidos que no se deberían bloquear, y en otros dejando acceso total. Ocurre con la pornografía, a determinadas palabras responden bloqueando, pero otros términos más metafóricos pasan perfectamente cualquier filtro», explica Perales. «Nosotros creemos que lo que funciona, aparte de sistemas de doble verificación para conocer la identidad del usuario y determinar si es menor o no, es la calificación de los contenidos como paso previo a su almacenamiento y difusión, porque permite que haya un baremo armonizado con unos criterios que todo el mundo utilice que sean similares y que permitan que de forma automática un control parental funcione», concluye.