- Victor Salgado, abogado especializado en ciberseguridad y protección de datos, analiza la polémica decisión de rescindir el sistema de verificación de contenidos de Meta, "un sistema que, con sus deficiencias, ayudaba a luchar contra la desinformación".
- "Todos tenemos derecho a emitir y recibir información, pero ha de ser veraz. No podemos ampararnos en la libertad de expresión para difundir contenidos nocivos o directamente falsos, también existen límites", expone Salgado.
Hasta este 2025, el ecosistema digital contaba con dos modelos de verificación de contenidos opuestos:

las notas de comunidad de X, donde el usuario es el encargado de etiquetar los bulos y denunciarlos, frente al sistema de verificación externa de Meta, con fact-checkers profesionales que comprobaban los contenidos y los moderaban. Pero el inicio del nuevo año y la toma de posesión de Donald Trump traen novedades en materia tecnológica: ahora ya solo impera el modelo implementado por Elon Musk en su plataforma, X, dentro de Estados Unidos.
"Sin ser perfecto, el sistema de moderación de contenidos de Meta permitía luchar contra la desinformación y los contenidos nocivos que encontramos en las redes sociales. Y contar con procesos así es algo esencial para evitar la polarización de la esfera pública y los ataques a derechos fundamentales en la red", destaca Víctor Salgado, abogado experto en Derecho Digital.
Para Salgado, la decisión no solo conlleva malas noticias en la calidad del debate democrático, sino que "supone pensar que la libertad de expresión no tiene límites", cuando en realidad estos se encuentran "en los derechos y libertades de los demás". Continúa el experto en Derecho Digital: "todos tenemos derecho a emitir y recibir información, pero siempre que sea veraz. Si es desinformación o contenidos falsos, la libertad de expresión no ampara a nadie, y menos si con ella se agreden los derechos fundamentales de imagen, honor y privacidad de otra persona".
Bajo el análisis de Pintos & Salgado, la decisión de implantar un modelo de notas de la comunidad, con el usuario como principal gestor y verificador de los bulos, "pervierte el objetivo de la moderación; las plataformas tecnológicas no pueden eliminar su responsabilidad a la hora de eliminar y revisar los contenidos que se propagan en sus redes sociales".
Entre los principales riesgos que entrañan las notas de comunidad, la suplantación de usuarios mediante bots digitales, con sus ciberataques coordinados, se sitúa a la cabeza como una de las prácticas que impiden "un etiquetado de calidad" y una gestión "eficaz".
En Europa, de hecho, el sistema de verificación de Meta continúa vigente por el enorme riesgo de incumplimiento legal de, entre otras normativas, la DSA o Ley de Servicios Digitales, que impondría sanciones económicas de gran volumen a cualquier plataforma que no tuviese mecanismos de moderación y respuesta a bulos, información dañina u otro contenido perjudicial por su fomento de odio.
Diseñar nuevos algoritmos, una propuesta de futuro
Entre las claves de este problema se desarrolla una máxima: no existe un consenso claro sobre cómo gestionar adecuadamente los contenidos en redes sociales. Pero para Víctor Salgado la solución está mucho más allá de la manera de verificar la veracidad de lo que se vuelca en las plataformas.
"El cambio ha de ser doble. Primero, necesitamos que en los espacios educativos, desde colegios a institutos y universidades, se nos instruya en el uso responsable de las tecnologías; en cómo lo que decimos en Internet tiene un impacto en los demás".
"La segunda", contextualiza Salgado, "es trabajar en el rediseño de los algoritmos de las redes sociales. Se ha establecido un modelo que pugna por nuestra atención, que busca que permanezcamos en la plataforma. Y para eso se prima, siempre, el contenido muy llamativo, que la mayor parte de las veces coincide con el más radical. Los algoritmos favorecen los mensajes más polémicos y ocultan los contenidos más sosegados". Ese es el principal problema para el abogado especializado en Derecho Digital: lo relevante es generar interacciones, incluso aunque participen personajes extremos.
Frente a esto, "necesitamos nuevos algoritmos que primen y visibilicen la sensatez, la menor radicalidad, el pensamiento reflexivo. Pero supone ir en contra del interés económico de las plataformas y su modelo de negocio. Perderían nuestra atención, es cierto, pero ganaríamos como sociedad y como democracia muchísimo más", concluye Salgado.