Fin de vie, suicide assisté ou cas d'automutilation : sur Facebook, les contenus liés à ces situations sont soumis à une batterie de règles visant à concilier sécurité des utilisateurs et liberté d'expression, comme l'illustre le cas d'Alain Cocq.
Un équilibre délicat pour le réseau social qui compte près de 1,8 milliard d'utilisateurs au quotidien, et est parfois accusé de ne pas mettre assez de moyens pour éviter la diffusion de contenus violents ou choquants. Ces règles ont d'ailleurs été renforcées au fil des ans après des affaires qui ont défrayé la chronique, comme le décès en 2017 au Royaume-Uni de Molly Russell, une adolescente de 14 ans qui s'était suicidée après avoir visionné des contenus liés à l'automutilation et au suicide sur Instagram, filiale de Facebook.
Le Français Alain Cocq, militant pour une fin de vie "digne", atteint d'une maladie incurable, a quant à lui annoncé sur Facebook, dans la nuit du 4 au 5 septembre 2020, avoir cessé son traitement, toute alimentation et hydratation, pour dénoncer "l'agonie" contrainte par la loi actuelle sur la fin de vie (article en lien ci-dessous). Il entend partager ses derniers jours sur le réseau social, tout en assurant qu'il ne montrera d'images "trash".
Pas de disposition spécifique sur la fin de vie
Si la plateforme ne communique jamais sur les situations individuelles que ses équipes de modération sont appelées à gérer, elle dispose d'un ensemble de règles très détaillées sur ce que ses utilisateurs peuvent ou non publier, qui aident à comprendre comment le réseau social réagit dans ce genre de cas. Ces "standards de la communauté" visent à concilier plusieurs exigences, dont la sécurité des utilisateurs et la liberté d'expression. Si elles ne prévoient pas de dispositions spécifiques concernant la fin de vie, elles sont en revanche très strictes concernant les contenus qui peuvent s'apparenter à une promotion du suicide ou de l'automutilation. Des cas qui englobent l'euthanasie ou le suicide assisté, mais qui ne semblent pas s'appliquer directement au cas d'Alain Cocq, dont la page Facebook était pleinement accessible le 5 septembre en fin de matinée.
Promouvoir un environnement sûr
"Dans le but de promouvoir un environnement sûr sur Facebook, nous supprimons tout contenu qui encourage le suicide ou l'automutilation, y compris certaines images explicites, représentations en temps réel et contenu fictif qui, selon les experts, pourraient inciter d'autres personnes à adopter un comportement similaire", prévient le réseau dans ses "standards". Cependant, ces mêmes règles autorisent "les photos ou les vidéos représentant une personne ayant commis un suicide dans le cadre des actualités", ainsi que "les photos ou les vidéos représentant une personne ayant subi une euthanasie ou un suicide assisté dans un contexte médical", mais en limitant leur accès aux plus de 18 ans et en les assortissant d'un message d'avertissement.
Des règles assouplies pour « l'intérêt public »
En outre, le réseau se réserve la possibilité d'assouplir ses propres règles, s'il en vient à considérer que des contenus normalement non autorisés sont d'intérêt public. "Dans certains cas, nous autorisons la publication de contenu qui va à l'encontre de nos 'standards de la communauté' s'il est pertinent et d'intérêt public", explique le réseau qui assure, dans de telles situations, évaluer "l'impact positif pour l'intérêt public par rapport à la nuisance potentielle", le tout en s'appuyant "sur les principes universels des droits de l'Homme". Enfin, le réseau laisse parfois en ligne des contenus litigieux le temps de porter assistance à ceux qui les publient, si cela peut permettre de sauver des vies. "Nous avons été informés par des experts que nous ne devrions pas supprimer les vidéos d'automutilation en direct tant que les proches de la victime et les autorités peuvent encore intervenir", indique Facebook, à titre d'exemple.