Si vous suivez l’actualité aux États-Unis depuis un an, il y a eu un grand brouhaha à propos de quelque chose appelé « Section 230 », et bien que tout le monde semble avoir une opinion là-dessus, il y a très peu de discussions sur le contexte dans lequel la loi est née ou ce qu’elle fait réellement.
Pour l’essentiel, le débat a tourné autour de la question de savoir si les sociétés de médias sociaux comme Twitter et Facebook respectent la loi ou si la loi doit être ajustée pour s’adapter au contexte actuel avec le pouvoir qu’ont ces sociétés de diriger les discussions de leurs utilisateurs. .
Pour bien comprendre pourquoi l’article 230 de la Communications Decency Act de 1996 est si important, il est important d’explorer de quoi il s’agit, de quoi il discute et pourquoi il a vu le jour en premier lieu.
Retour à 1934
Franklin D. Roosevelt était président depuis un peu plus d’un an lorsqu’il tentait de trouver un moyen de démêler la bureaucratie qui réglemente les communications radio d’une manière qui rationalise tout en une seule commission. Peu de temps après que cette initiative a été poussée au Congrès, il a signé le Communications Act de 1934, éliminant les anciennes bureaucraties et créant la Federal Communications Commission.
Le but de tout cela, selon la loi, est de «réglementer le commerce interétatique et étranger dans les communications par fil et radio» pour établir des règles claires et faciles à comprendre, émanant d’un seul organe directeur.
Depuis ce moment, la FCC est l’autorité de contrôle et de réglementation de la radio, de la télévision et même d’Internet.
Ce dernier, cependant, ne repose pas sur le style de diffusion typique que nous associons aux deux autres. Cela est devenu un problème même au début des années 90, alors qu’Internet en était encore à ses balbutiements. Étant donné à quel point Internet fonctionne différemment – permettant à presque tout le monde d’avoir sa propre boîte à savon et démocratisant le flux d’informations – on ne pouvait pas s’attendre à ce que les principes de fonctionnement de la FCC soient compatibles ou même suffisamment flexibles pour lui permettre de prospérer.
Un changement était nécessaire, et il est intervenu sous l’administration Clinton sous la forme de la loi sur les télécommunications de 1996.
La naissance de la régulation d’Internet
Bien que plusieurs tentatives aient été faites pour réglementer Internet aux États-Unis, rien ne s’est aussi rapproché de la Loi sur les télécommunications de 1996. La loi contenait une section connue sous le nom de Titre V. Certains peuvent la connaître sous le nom de Communications Decency Act.

Lorsqu’il a été adopté pour la première fois, le CDA était la première grande tentative du Congrès de limiter « obscénité, indécence ou nudité » sur tous les modes de diffusion, y compris Internet. Cette loi a finalement été invalidée par la Cour suprême un an plus tard et révisée pour supprimer cette partie particulière.
Cependant, il reste encore dans la loi une disposition intéressante connue aujourd’hui sous le nom de « sphère de sécurité », ou Article 230(c)(2). En vertu de cette disposition, les fournisseurs de contenu sur Internet sont autorisés à effectuer «n’importe quelle action […] de bonne foi pour restreindre l’accès ou la disponibilité du matériel que le fournisseur […] considère comme obscène, obscène, lascif, sale, excessivement violent, harcelant ou autrement répréhensible, indépendamment des dispositions constitutionnelles concernant la liberté d’expression.
Où les médias sociaux entrent en jeu
Sous la forme qu’elle a prise lors de son adoption en 1996, la loi tentait d’affirmer le droit des « services informatiques interactifs » de modérer leur contenu, en éliminant les choses que les gens publient qui sont sans doute de nature ignoble ou autrement « nuisibles aux mineurs » (comme stipulé plus loin dans la section d). Mais cela permet-il également aux plateformes de médias sociaux d’organiser fortement les messages publiés par leurs utilisateurs ?

C’est la grande question posée par les débats qui ont commencé en 2020, mais vous serez peut-être surpris d’apprendre qu’il ne s’agit pas d’une nouvelle question. En fait, l’article 230 a été rédigé spécifiquement pour faire une distinction entre les éditeurs qui organisent leur contenu et les distributeurs de contenu (plateformes).
En 1997, un an seulement après la promulgation de la CDA, la Cour d’appel du quatrième circuit a statué en faveur d’AOL lorsque quelqu’un a tenté de tenir l’entreprise responsable de l’un des messages de son utilisateur.
Cela résultait du paragraphe de l’article 230 avant celui mentionné précédemment, qui stipule : “Aucun fournisseur ou utilisateur d’un service informatique interactif ne sera considéré comme l’éditeur ou le locuteur d’une information fournie par un autre fournisseur de contenu d’information.“
En clair, cela signifie : « Si vous êtes une plate-forme et qu’un de vos utilisateurs décide de dire quelque chose de scandaleux ou (concernant l’affaire AOL) de publier des informations diffamatoires via votre service, vous n’êtes pas légalement responsable de ce que cet utilisateur a fait. “
Des services comme Telegram, Whatsapp, Facebook, Twitter et bien d’autres auraient de sérieux problèmes si ce n’était pas le cas. Les informations divulguées et diffamatoires par des individus agissant de leur propre gré passent par ces services tout le temps. L’histoire n’est pas la même pour les sites du New York Times, du Miami Herald et d’autres journaux parce qu’ils sont éditeurs et qu’ils sont donc censés organiser leur contenu.
Le débat
Voici où les choses deviennent assez désordonnées. Nous avons déjà établi que l’article 230 visait à faire une distinction entre les éditeurs et les plateformes, mais que se passe-t-il lorsque Twitter décide de punir lourdement les personnes qui expriment des idées jugées répréhensibles par la majorité de sa base d’utilisateurs ?
Les sites de médias sociaux, les messageries, tout ce que Reddit est maintenant, et même les forums de Steam, jouissent de la liberté d’être des plates-formes, ce qui les rend presque à l’abri des litiges lorsque leurs utilisateurs se livrent à une mauvaise conduite civile. Leur seule véritable obligation est de supprimer les contenus illégaux (comme les messages d’utilisateurs faisant la promotion de la vente de drogues récréatives). Mais lorsqu’ils assument volontairement la tâche d’éditeur en supprimant d’autres idées, éventuellement des parodies offensantes, de l’humour et des mensonges ironiques ou unironiques, agissent-ils toujours comme une plate-forme ?
D’un côté, la réponse est « oui ». La triste vérité est que l’article 230 est assez vague sur les plates-formes autorisées à supprimer. En utilisant des mots comme « sale » et « répréhensible », il est facile de justifier la suppression de presque tout ce qui n’est pas quelqu’un qui parle de la météo le dimanche tout en profitant des privilèges de la sphère de sécurité.
D’un autre côté, les tentatives constantes de curation du contenu au-delà de la limite sociale de ce qui serait considéré comme « supprimer le contenu ignoble de bonne foi » font que certaines de ces sociétés se comportent un peu comme des éditeurs.
En fin de compte, la vraie question à laquelle nous n’avons actuellement pas de réponse claire est la suivante : « Les sociétés de médias sociaux qui organisent des discours politiques ont-elles la capacité, en vertu de l’article 230, de continuer à se considérer comme des plateformes neutres pour leurs utilisateurs ? »
Et s’ils perdent la protection de la sphère de sécurité, comment faire en sorte que ce précédent juridique n’étouffe pas la croissance de nouveaux arrivants qui pourraient potentiellement concurrencer ces sites plus grands et mieux établis ?
Que pensez-vous de cela? Ce débat vaut-il le coup ? L’article 230 de la CDA va-t-il assez loin pour faire une distinction appropriée entre l’éditeur et la plate-forme ? Dites-nous vos idées ci-dessous! En attendant, consultez également la réglementation GDPR et son impact sur vous.