MADRID, 25 (Portaltic/EP)
Mastodon es una plataforma de 'microblogging' que nació en 2016, que hace uso de un 'software' de código abierto, permite publicaciones de 500 caracteres conocidas como 'toots' y que muestra su línea de tiempo en orden cronológico.
Al contrario que otras plataformas como Facebook, esta red social, una de las principales competidoras de Twitter, funciona de forma descentralizada gracias al protocolo ActivityPub, que posibilita su trabajo con servidores independientes gestionados por los propios usuarios.
De ese modo, se apoya en el conocido como Fediverse -'fediverso'-, un ecosistema que da cabida a varios servidores y en el que son los propios administradores los que se encargan de la moderación de las publicaciones. Es decir, no hay un equipo específico moderando en base a unas reglas unificadas para todos, como sí ocurre en plataformas centralizadas como Twitter e Instagram.
Si bien la libertad de expresión es el principal atractivo para interactuar en una red social descentralizada, dado que los usuarios pueden crear sus propios servidores o una cuenta en el que mejor encaje con sus valores, tiene en contra la regulación más arbitraria o la falta de recursos para moderar, en especial en los casos más graves, como la compartición de material relacionado con abusos infantiles.
En este contexto, dos investigadores del Observatorio de Seguridad de la Universidad de Stanford (Estados unidos), David Thiel y Renée DiResta, han estudiado los "nuevos desafíos para la confianza y la seguridad" que presentan estos sistemas sin un organismo de control -que habitualmente se encarga de eliminar el contenido dañino-, ya que suele ser el principal reclamo de los malos actores.
CONTENIDO ILEGÍTIMO FÁCILMENTE ACCESIBLE
Para conocer el alcance del riesgo de los sistemas descentralizados con respecto al contenido que se promueve, los investigadores de la Universidad de Stanford tomaron como referencia un total de 325.000 publicaciones de una de estas redes, en concreto Mastodon.
Del total de publicaciones estudiadas, identificaron 112 contenidos CSAM y 554 instancias de contenido sexualmente explícito relacionados con 'hashtags' y palabras clave habitualmente empleados en comunidades de explotación infantil. Como han matizado, la primera de estas evidencias apareció tan sólo cinco minutos después de comenzar el análisis, lo que sugiere que es relativamente sencillo acceder a estas imágenes de abusos.
Por otra parte, los investigadores han puesto el foco en la importancia de las etiquetas de las publicaciones con contenido dañino. Para ello se han servido de las conclusiones del análisis de uno de los servidores de Mastodon con sede en Japón, en el que se advirtieron once de los 20 'hashtags' más utilizados para contenido pedófilo, escritos tanto en inglés como en japonés.
En toda investigación, se detectaron 713 casos de uso de esos 20 'hashtags' en publicaciones de contenido multimedia y en 1.217 de publicaciones de texto.
Thiel y DiResta han dicho que actualmente "la intersección de la moderación y la libertad de expresión es un tema tenso", motivo por el que las redes sociales descentralizadas "han ganado una atención significativa y muchos millones de nuevos usuarios", algunos de ellos con malas intenciones.
En este sentido, han señalado cuáles creen que son los problemas a los que se enfrentan estas redes sociales y cómo se deberían controlar sin la intervención de un organismo de moderación centralizado, con la introducción de mecanismos que permitan "mejorar el ecosistema de manera sostenible".
En primer lugar, los investigadores creen que estas redes sociales tienen "dificultades para detectar o mitigar" contenido inapropiado, como es el caso del material de abuso sexual infantil. Más concretamente, Mastodon, plataforma que se ha tomado como referencia para este análsis, "no tiene un mecanismo integrado para denunciar el abuso infantil a las organizaciones de seguridad pertinentes".
Entre algunos de los mecanismos de identificación y rastreo que las plataformas centralizadas sí disponen se encuentran tecnologías de identidicación y filtrado que permiten detectar contenido ilegítimo relacionado con menores de edad.
Los investigadores han señalado que, si bien las plataformas descentralizadas "se han basado en gran medida en brindar herramientas a los usuarios finales para controlar su propia experiencia", para permitir el escalado de sistemas como Fediverse, "se requerirán algunos componentes centralizados".
Así, los investigadores han aconsejado la implementación de mecanismos que permitan a estas plataformas descentralizadas como Mastodon o Nostr o semicentralizadas, como Bluesky, ofrecer "la confianza y seguridad" que actualmente ofrecen otras redes sociales centralizadas.
En primer lugar, han comentado la necesidad de integrar herramientas para moderadores que les permitan detectar contenidos dañinos, así como otras soluciones, como huellas digitales, enfocadas a identificar no solo a los usuarios que distribuyen este contenido, sino también a los reincidentes.
Por otro lado, han propuesto la promoción de listas de bloqueo que incluyan 'hashtags' o palabras clave relacionadas con la explotación sexual de menores, para que los usuarios puedan denunciar contenidos dañinos como, por ejemplo, desnudos de menores.
Asimismo, los encargados de este estudio han mencionado la necesidad de que el ecosistema de la plataforma sea compatible con sistemas de identificación de contenidos, como PhotoDNA, lo que podría descartar y eliminar coincidencias positivas de publicaciones ilegítimas.
Otra herramienta a considerar para su introducción en los sistemas descentralizados es la de los mensajes directos o los grupos de chat cifrados de extremo a extremo. De ese modo "al menos, se tendría acceso al correo electrónico y a las direcciones IP de los involucrados" en la distribución de contenido sexual infantil, por lo que se les podría interceptar y denunciar.
CONTENIDO ILÍCITO TAMBIÉN EN INSTAGRAM Y TWITTER
Este mismo Observatorio de Internet anunció el pasado mes de julio que habría encontrado indicios similares en otras dos plataformas masivas, como son Instagram y Twitter. En el caso de esta última, los analistas, junto con The Washington Post, utilizaron también la herramienta PhotoDNA para detectar este contenido, la misma que Twitter admitió utilizar para encontrar y borrar material relacionado con la pedofilia.
A pesar de ello, los investigadores estadounidenses apuntaron que aun habiendo sido identificados y marcados como prohibidos por su contenido dañino, la plataforma propiedad de Elon Musk lo mantuvo en sus servicios.
Asimismo, estos investigadores, junto con los de la Universidad de Massachusetts Amherst, también de Estados Unidos, así como la mencionada publicación, señalaron días después que Instagram favorecía la pedofilia entre ssus contenidos, al conectar usuarios que venden imágenes y vídeos de carácter sexual de menores con personas que los adquieren.
Entonces, se descubrió que la red social que dirige Adam Mosseri permitía a estos individuos buscar etiquetas o 'hashtags' explícitos, como #pedowhore (pedófilo) y #preteensex (sexo preadolescente).