La popular red social TikTok, propiedad del gigante chino ByteDance, enfrenta una nueva investigación judicial en Francia por presuntamente no controlar el contenido que promueve el suicidio dentro de la plataforma. La Fiscalía de París anunció que el caso se centrará en examinar el funcionamiento del algoritmo y el cumplimiento de las obligaciones legales de supervisión e información sobre posibles delitos cometidos a través de sus servicios.
Según el comunicado oficial, las autoridades buscan determinar si la empresa ha actuado con la diligencia necesaria para proteger a sus usuarios, especialmente a los menores de edad, frente a materiales potencialmente dañinos. La investigación surge luego de que una comisión parlamentaria francesa emitiera un informe crítico sobre la falta de control en el acceso de menores y la supuesta laxitud en la moderación de contenidos peligrosos.
El diputado Arthur Delaporte, presidente de la comisión investigadora, fue quien elevó el caso ante la fiscalía tras documentar varios testimonios y pruebas que apuntan a que el algoritmo de TikTok podría estar atrapando a usuarios vulnerables en un bucle de videos relacionados con el suicidio o la autolesión. De acuerdo con el informe, el sistema de recomendaciones habría fomentado una exposición reiterada a este tipo de contenidos, afectando la salud mental de jóvenes y adolescentes.
“El problema no es solo la existencia del contenido, sino la manera en que la plataforma lo distribuye de forma insistente a usuarios susceptibles”, señaló Delaporte en su presentación ante el Parlamento.
La fiscal de París, Laure Beccuau, confirmó que la investigación estará a cargo de la Brigade de lutte contre la cybercriminalité, una unidad policial especializada en delitos digitales. Esta división se encargará de analizar el código algorítmico, los sistemas de moderación y los reportes internos de TikTok sobre contenido autodestructivo.
Esta no es la primera vez que la plataforma enfrenta cuestionamientos legales en el continente. En septiembre, la Comisión Europea también abrió procesos contra TikTok y Meta Platforms por presunta infracción de las normas del Reglamento de Servicios Digitales (DSA), que exige a las grandes plataformas actuar con transparencia y rapidez frente al contenido ilegal o perjudicial.
Las autoridades europeas sostienen que el incumplimiento de estas obligaciones podría acarrear sanciones significativas, incluyendo multas de hasta el 6 % de los ingresos globales anuales de las compañías implicadas. Para TikTok, esto supondría cientos de millones de euros en riesgo, además de un daño reputacional considerable en uno de sus principales mercados.
El caso reabre el debate sobre el papel y la responsabilidad de las redes sociales en la protección de los usuarios más jóvenes, en un momento en que el bienestar digital y la salud mental se han convertido en temas prioritarios para los gobiernos europeos. Expertos en ciberseguridad y psicología advierten que los algoritmos de recomendación, diseñados para maximizar la permanencia en la aplicación, pueden terminar amplificando comportamientos nocivos si no cuentan con filtros efectivos.
Por ahora, TikTok no ha emitido una respuesta oficial, aunque en anteriores ocasiones la compañía ha defendido sus políticas de seguridad y ha asegurado que invierte en herramientas de moderación y apoyo psicológico para sus usuarios. Sin embargo, las autoridades francesas parecen decididas a establecer un precedente en la regulación del contenido digital.
El proceso podría marcar un antes y un después para el futuro de las plataformas sociales en Europa. La pregunta que muchos se hacen es si este caso servirá para fortalecer los mecanismos de control o si revelará los límites reales de la supervisión tecnológica sobre los algoritmos más poderosos del mundo digital.

