Ce procès pourrait rendre les médias sociaux plus sûrs pour vos enfants

Ce procès pourrait rendre les médias sociaux plus sûrs pour vos enfants

Un tribunal fédéral a décidé aujourd’hui qu’une action en justice accusant les entreprises de médias sociaux de nuire intentionnellement aux enfants par la conception de plates-formes addictives est autorisée à aller de l’avant.

Déposée au nom de centaines de mineurs à travers les États-Unis, l’action en justice a été jugée recevable par un tribunal fédéral. procès consolidé allègue que des entreprises telles que Meta, Snap, TikTok et YouTube ont spécifiquement conçu leurs plateformes pour « accrocher » les jeunes utilisateurs, ce qui entraîne des problèmes de santé mentale tels que l’anxiété et la dépression.

L’affaire regroupe plus de 100 actions en justice individuelles intentées depuis le début de l’année 2022, peu après que la dénonciatrice de Facebook, Frances Haugen, a été condamnée à une peine d’emprisonnement d’un an. la fuite d’une recherche interne sur les effets néfastes d’Instagram sur la santé mentale des adolescents.

Un juge autorise la poursuite d’une grande partie du procès

« Les défendeurs auraient ciblé les enfants en tant que marché principal et conçu leurs plates-formes pour les attirer et les rendre dépendants », a écrit la juge Yvonne Gonzalez Rogers dans l’affaire l’ordonnance émise en Californie.

Les entreprises ont demandé le rejet de l’action en justice, arguant qu’elles sont protégées de toute responsabilité en vertu de l’article 230 de la loi sur la décence des communications (Communications Decency Act). Connue simplement sous le nom d’article 230, cette loi de 1996 protège les plates-formes en ligne contre les poursuites judiciaires relatives au contenu généré par les utilisateurs.

Mais après une analyse détaillée, M. Rogers a écrit que « l’approche « tout ou rien » des parties à l’égard des requêtes en irrecevabilité ne tient pas suffisamment compte de la complexité des questions soulevées par ce litige ».

Au centre de l’action en justice se trouvent les allégations concernant les flux incessants des plateformes, les notifications push, les recommandations algorithmiques et d’autres caractéristiques de conception qui les rendent addictives. Les plaignants affirment que ce sont ces choix de conception intentionnels qui sont responsables des dommages causés à la santé mentale, et non le contenu lui-même.

Rogers est d’accord. L’article 230 n’interdit pas les actions en responsabilité du fait des produits axées sur des défauts de conception tels que l’inefficacité des contrôles parentaux, la vérification de l’âge, les limites de temps et les obstacles à la suppression des comptes. Toutefois, les plaintes concernant l’utilisation d’algorithmes pour recommander des comptes et certaines fonctions de notification ont été rejetées.

« Il en va de même ici. La Cour doit examiner le comportement spécifique par lequel les défendeurs auraient violé leurs obligations envers les plaignants », a écrit M. Rogers. « Ce sont ces allégations détaillées et spécifiques au comportement qui doivent être analysées.

Une découverte potentiellement préjudiciable en perspective

Avec l’ouverture du procès, des documents et des données internes des entreprises technologiques concernant leur connaissance des dommages potentiels pourraient être révélés. Les plaignants affirment que les entreprises étaient conscientes des effets sur la santé mentale des enfants, mais qu’elles n’ont pas fait grand-chose pour résoudre les problèmes de sécurité.

L’approche « tout ou rien » des parties ne représente pas de manière juste ou précise l’application par le neuvième circuit de l’immunité de la section 230″, a écrit M. Rogers. « La Cour a plutôt procédé à une analyse des défauts de fonctionnalité réels allégués dans la plainte.

L’action en justice vise à obtenir des modifications de conception et des dommages-intérêts

L’action en justice vise à appliquer la loi sur la responsabilité du fait des produits aux médias sociaux, en considérant les plateformes comme des produits défectueux nécessitant une amélioration de la conception et des avertissements.

Les entreprises technologiques ont longtemps bénéficié d’une immunité juridique pour le seul contenu des utilisateurs. Néanmoins, cette affaire et d’autres signalent une nouvelle menace axée sur les algorithmes, les systèmes de recommandation et d’autres choix opérationnels intégrés dans les plateformes.

Les avocats des entreprises n’ont pas indiqué s’ils allaient faire appel de la décision, ce qui permet à des parties importantes du procès de se poursuivre. Avec des milliards de dollars et la conception future des médias sociaux en jeu, l’affaire est suivie de près dans les milieux technologiques et juridiques.

Si l’action collective est certifiée, les plaignants demanderont des dommages-intérêts et imposeront des changements sur la plateforme, tels que des limites de temps par défaut, la vérification de l’âge, la transparence algorithmique, etc. Toutefois, l’affaire se heurte encore à des obstacles, comme celui de prouver que les plateformes ont directement causé les dommages à la santé mentale subis par les mineurs.

En fin de compte, l’action en justice vise le modèle économique publicitaire des entreprises de médias sociaux, qui dépend de la maximisation du temps d’engagement des utilisateurs grâce à des choix de conception tels que le défilement sans fin des fils d’actualité. Tout changement imposé aux entreprises pourrait avoir une incidence sur leurs bénéfices.

Perspectives d’avenir

Bien qu’elle n’en soit qu’à ses débuts, la décision mixte maintient l’action en justice en vie et ouvre la voie à des documents internes qui pourraient révéler jusqu’où Facebook, Snapchat, TikTok et YouTube ont pu aller pour attirer de jeunes utilisateurs au détriment de leur bien-être.


Image en vedette : DavideAngelini/Shutterstock

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *