Les réseaux sociaux reconnus responsables du suicide de Molly, adolescente de 14 ans
Molly Russel avait 14 ans quand elle s’est suicidée en 2017, et pour ses parents les contenus qu’elle avait consultés sur les réseaux sociaux y sont pour quelque chose. La justice britannique leur a donné raison.
Le suicide de cette adolescente britannique a relancé au Royaume-Uni le débat sur l’emprise des réseaux sociaux sur les jeunes. Car tentant de comprendre son geste, ses parents ont découvert que la jeune fille avait été massivement exposée, essentiellement sur Instagram et Pinterest, à des contenus évoquant, voire normalisant, la dépression, le suicide et l’automutilation.
Depuis près de cinq ans ils se battent pour faire reconnaître le rôle des réseaux sociaux dans la mort de leur fille et pour faire en sorte que les enfants soient mieux protégés sur internet.
Les conclusions d’une procédure judiciaire dite « d’inquest », destinée à déterminer les causes de la mort de l’adolescente, sont sévères. Les contenus vus par Molly « n’étaient pas sûrs » et « n’auraient jamais dû être accessibles à une enfant », a ainsi déclaré Andrew Walker, le « coroner » chargé de la procédure.
Et plutôt que de qualifier sa mort de suicide, il a donc estimé que l’adolescente « était morte d’un acte d’automutilation, alors qu’elle souffrait d’une dépression et des effets négatifs de contenus vus sur internet ».
Une partie de ces contenus était « particulièrement explicite tendant à décrire l’automutilation et le suicide comme une conséquence inévitable d’une maladie dont elle ne pourrait pas guérir », et « sans aucun contrepoints », a-t-il insisté.
Il a notamment mis en cause les algorithmes développés par les réseaux sociaux, qui ont tendance à proposer aux utilisateurs du contenu similaire à ce qu’ils ont vu précédemment.
Appels à l’aide
Réagissant à la sortie du tribunal, le père de Molly, Ian Russell, a dit espérer que ces conclusions « marqueront un pas important pour apporter les changements nécessaires » au fonctionnement des réseaux sociaux.
La question du fonctionnement des algorithmes et de la modération des contenus est un enjeu majeur pour les plateformes, alors que de plus en plus de voix s’élèvent pour demander un renforcement de la réglementation afin d’éviter les dérives, comme le cyber-harcèlement ou la désinformation.
Une loi sur la « sécurité sur internet » censée trouver un équilibre entre la liberté d’expression et la protection des utilisateurs, en particulier des mineurs, est d’ailleurs en cours d’examen au Parlement britannique.
Durant la procédure, la Cour a diffusé certains des plus de 2.000 contenus – textes, photos, vidéos – évoquant le suicide ou l’automutilation, vus sur les réseaux par la jeune Molly dans les six mois ayant précédé son décès.
La jeune fille avait même reçu par mail des recommandations de Pinterest lui suggérant d’aller lire « 10 posts sur la dépression que tu pourrais aimer ».
La procédure a aussi mis en avant la difficulté pour les familles et le personnel éducatif des écoles à contrôler ce que les enfants voient et font sur internet.
Renfermée sur ces réseaux, la jeune fille avait lancé des appels au secours à des célébrités, comme à la romancière J.K Rowling à qui elle a écrit sur Twitter « mon esprit est rempli de pensées suicidaires ». Autant de bouteilles à la mer qui se sont perdues dans l’océan numérique.
Des responsables de Meta (propriétaire de Facebook et Instagram) et de Pinterest entendus durant la procédure ont présenté leurs « excuses » pour le décès de Molly.
Judson Hoffman de Pinterest avait reconnu que la jeune fille avait été exposée à du contenu « pas sûr », et qu' »il y a du contenu qui aurait du être supprimé et qui ne l’a pas été ».
Elizabeth Lagone, représentant Meta, avait elle expliqué que l’évaluation du danger des contenus était « en constante évolution » et que certains vus par la jeune fille étaient « sûrs » et reflétaient des messages « nuancés et compliqués ». Elle a aussi jugé « important » de permettre aux personnes ayant des idées suicidaires de les exprimer sur internet.
Vendredi, le groupe fondé par Mark Zuckerberg a assuré « qu’il était engagé à assurer une expérience positive à tous sur Instagram, en particulier les adolescents, et qu’il étudierait avec attention le rapport complet du coroner ».