Telegram ha estado en muchos problemas por la facilidad con la que se han constituido espacios dedicados a actividades criminales en su plataforma y una falta de acción efectiva en contra de los grupos asociados. Su fundador, Pavel Durov, fue arrestado en Francia al ser considerado responsable por la difusión del contenido nocivo a través del servicio de mensajería.
La respuesta de la compañía ha sido asegurar a las autoridades que tendrán todo el apoyo necesario para combatir a los grupos criminales, sobre todo los vinculados al abuso infantil.
Telegram ofrecerá datos de usuarios cuando reciba una orden legal apropiada
Pero al mismo tiempo Telegram ha querido dejar en claro que su actitud no ha cambiado y que en realidad viene trabajando en temas de seguridad y moderación de contenido desde hace años. Por dicha razón se ha anunciado a través de la cuenta del CEO de la empresa el lanzamiento de una página de moderación destinada a comunicar todos estos esfuerzos. Para que el público, y posiblemente los gobiernos, estén mejor informados.
Algunos datos
En la página de moderación se apunta que el trabajo comenzó en 2015. Se señala que a principios de 2024 mejoraron notablemente los resultados gracias al uso de inteligencia artificial. Esto ha llevado a que durante este año se bloquearan más de 15 millones de canales y grupos.
Sobre el abuso infantil Telegram apunta que desde 2018 las imágenes públicas son examinadas por lo grupos de moderación. En 2024 más de 700 mil grupos y canales relacionados con el abuso infantil fueron detectados.
Finalmente, se destaca que Telegram publica desde 2016 informes sobre la eliminación de contenido de grupos terroristas. El trabajo se ha intensificado desde 2022. En 2024 131 mil comunidades relacionadas con el terrorismo fueron bloqueadas.