Le 10 novembre dernier, nous avons auditionné Frances Haugen à l’Assemblée nationale. L’ancienne employée de Facebook (devenu Meta) a quitté l’entreprise emportant avec elle des milliers de documents.
Cette audition de la lanceuse d’alerte était menée par la commission économique conjointement avec la commission des lois. J’ai donc pu interroger Frances Haugen afin de l’entendre sur les différentes dérives de Facebook.
Pour visionner l’intégralité de l’audition, rendez-vous sur le site de l’Assemblée Nationale. Les propos suivant sont une retranscription de la traduction.
Eric Bothorel :
Facebook était conscient des dérives sur ses plateformes et volontairement – ou par impuissance – a choisi de les ignorer, délibérément selon vous, « dans l’objectif principal de réserver ses revenus publicitaires ». Je serais à cet égard très intéressé de vous entendre développer davantage sur ce point et j’ai donc une première question : En l’absence de standard éthique clairement défini, comment caractérisez-vous l’intentionnalité du maintien de telles dérives par les directions et les cadres de Facebook ?
Frances Haugen :
Le problème, ici, est le système Facebook. Facebook n’a pas de système de responsabilité interne. Ses porte-parole refusent de donner les noms des responsables de ces décisions. Chaque fois, Facebook dit que ce ne sont pas des individus qui décident, mais des communautés. J’ai encouragé, pour le Digital Services Act (DSA), l’idée d’attacher un nom à toute prise de décision. Ces dernières ont des conséquences pour des millions de personnes. Facebook a un pouvoir extraordinaire. […] En 2018, Facebook a essayé de maximiser le nombre d’interactions sur son réseau social. Ils appellent cela « les interactions qui font sens » mais en fait des intimidations ou de la haine peuvent être relayées. Ils savaient quels étaient les risques et conséquences, ils ont tout fait pour que les gens créer d’avantages et ils donnaient des petits coups de dopamines à chaque fois que vous aviez un like, un commentaire car vous étiez plus à même de produire davantage de contenu pour Facebook.
[…] Depuis 2018, Facebook est au courant des dommages causés à la santé mentale des adolescents mais ils ont dit que la recherche devait être mixte [financée en partie par une organisation gouvernementale. N.D.R.]. Je pense qu’étant donné l’influence de Facebook et les sommes colossales donc ils disposent, si en un an ou 18 mois, le problème n’est pas résolu c’est simplement parce qu’ils souhaitent ne pas payer pour le résoudre.
Eric Bothorel :
Ma seconde question porte sur les efforts européens pour réguler les dérives. Je souhaiterais connaitre votre avis sur le sujet, compte tenu des informations que vous avez rendu publiques et des grands principes du DSA en matière de régulation, de transparence et de contrôle de l’activité des plateformes numérique. Pensez-vous qu’il s’agit là : d’une réponse, d’un début de réponse, ou d’une bonne réponse aux dérives constatées ? Si ce n’était qu’un début que pourrions-nous faire et pourquoi ? Que pourrions-nous faire pour être parfaitement au niveau des enjeux que vous soulevez ?
Frances Haugen :
Ce qui est difficile dans le domaine technologique c’est que les choses vont très vite aujourd’hui. Nous avons des problèmes qui sont sans cesse changeants. Si l’on construit des barrières, Facebook trouvera un moyen de les contourner. Ce que j’aime dans le DSA, c’est qu’il a un modèle d’évaluation des risques. Facebook ne peut pas être le seul arbitre, et des auditeurs recrutés par Facebook ne peuvent pas produire un travail objectif. Il faut qu’un tiers puisse le faire.
Il y a quelques changements qui doivent avoir lieu dans le DSA.
- Le premier changement à faire, c’est que la communauté d’utilisateurs doit avoir son mot à dire.
- Deuxièmement, il faut s’assurer que ces audits concernent non seulement les contenus légaux, mais aussi les contenus illégaux ou nuisibles. Il ne faut pas oublier tous les contenus qui peuvent nuire à la santé mentale des enfants par exemple, cela peut être des contenus légaux mais toxiques.
- Ensuite, il y a le secret des affaires, cela fait des semaines que je témoigne et que j’alerte sur des données que Facebook considère comme « secrets commerciaux ». Les données comme les algorithmes ne sont donc pas publiées, je pense que cette disposition sur le secret commercial devrait être éliminée.
- Enfin, très souvent les données sont envoyées à des chercheurs et universitaires mais il faut que l’accès à ces données soient ouvertes à tous pour que nous puissions plus facilement prouver la nocivité des contenus.
Frances Haugen a par ailleurs salué les ambitions européennes lors de son audition à Bruxelles: https://www.lemonde.fr/pixels/article/2021/11/08/facebook-files-la-lanceuse-d-alerte-frances-haugen-salue-le-potentiel-enorme-du-projet-europeen-de-regulation-du-net_6101428_4408996.html
Écoutez ici mon passage sur France Inter à propos de Facebook.
2 réflexions sur « Le groupe Meta privilégie t’il ses revenus à la sécurité des utilisateurs ? Les projets de réglementation européens sont-ils à la hauteur des enjeux ? Mes questions à Frances Haugen. »