La crisis de Torre Pacheco, un municipio en Murcia, desató un alarmante aumento del discurso de odio en las redes sociales, con un incremento del 1.500% en comparación con la actividad habitual. Según un sistema de monitorización del Ministerio de Inclusión, el pasado 12 de julio de 2025 se registraron unos 33.000 mensajes de odio, frente a los aproximadamente 2.000 diarios que se producen en un día normal en España. Este fenómeno coincide con la manifestación y los disturbios en la localidad, evidenciando la conexión entre el mundo digital y los acontecimientos en el ámbito real.
El Observatorio Español del Racismo y la Xenofobia (Oberaxe) reportó que cerca del 30% de los mensajes de odio en redes sociales durante esa semana se concentraron en un solo día, destacando términos como “paliza”, “mierda” y “machete”. Estos mensajes no solo fomentaron el odio, sino que también abordaron cuestiones de seguridad ciudadana, buscando captar la atención del público.
Sorprendentemente, a pesar del aumento significativo de contenido violento en las plataformas, las empresas responsables de moderar estos contenidos, como X, Facebook, Instagram, TikTok y YouTube, no tomaron medidas efectivas para eliminarlo. Desde el 11 de julio, la actividad de eliminación de contenido fue rutinaria, con un escaso porcentaje de mensajes de odio retirados en comparación con las denuncias recibidas.
Para poner en perspectiva la situación, durante todo el año 2024, el Gobierno español notificó a las redes sociales un total de 2.870 contenidos de odio, de los cuales solo se eliminó un 35% en un plazo de 24 horas tras su denuncia. La red X fue la más notificada, pero también la que menos contenido retiró, con un 14% de eliminación. TikTok, por el contrario, mostró una mayor disposición para retirar mensajes, con un 69% de cumplimiento en sus peticiones.
El informe del Ministerio de Inclusión también destacó que Telegram se convirtió en un importante foco de odio durante los disturbios, aunque no se incluyó en el monitoreo por las limitaciones de acceso a su plataforma. La falta de visibilidad de grupos privados en Telegram plantea un reto considerable, ya que estos espacios pueden contener estrategias de incitación al odio que escapan a la supervisión habitual de las redes sociales. Según fuentes del Ministerio, el acceso a estos grupos requiere un número de móvil, lo que limita la capacidad de monitoreo similar al que tienen las fuerzas de seguridad.
La ministra de Inclusión, Elma Sáiz, señaló la falta de respuesta contundente de las redes sociales, lo que permite que mensajes que deshumanizan y estigmatizan a grupos como el de personas del norte de África permanezcan visibles, contribuyendo a la normalización del odio en línea. Para abordar esta problemática, el Gobierno ha establecido un grupo de seguimiento con las plataformas, una colaboración que, según Sáiz, “no tiene precedentes”.
Además, se han implementado medidas para mejorar la coordinación entre las redes sociales y las autoridades, reconociendo que lo que ocurre en el entorno digital se traduce en comportamientos en la vida real, como se evidenció en Torre Pacheco.
El Observatorio ha estado analizando el discurso de odio desde 2020, y recientemente activó un sistema de monitoreo denominado Faro, desarrollado en colaboración con la empresa Séntisis Intelligence. Este sistema permite una recolección automática de datos y está diseñado para identificar y analizar contenidos en diversas plataformas, aunque su eficacia varía según el tipo de contenido.
Pese a las críticas, algunas empresas de redes sociales han defendido su actuación, insistiendo en que no todos los mensajes considerados cuestionables infringen sus normas. Meta, propietaria de Facebook, y Google, con respecto a YouTube, han asegurado que aplican políticas estrictas contra el discurso de odio, aunque han señalado que el contenido que no infringe sus directrices permanecerá en sus plataformas.
En conclusión, el aumento del odio en las redes sociales durante la crisis de Torre Pacheco pone de manifiesto la necesidad de una mayor responsabilidad y acción por parte de las plataformas digitales, así como la urgencia de establecer mecanismos más efectivos para combatir el discurso de odio y proteger a las comunidades afectadas.
